etcd

解决阿里云ECS下kubeadm部署k8s无法指定公网IP

淺唱寂寞╮ 提交于 2020-04-14 03:50:35
【今日推荐】:为什么一到面试就懵逼!>>> 更新 以下方法比较笨拙,实用性不高,这里贴出知乎上一位大佬的文章—— Kubernetes——部署基于公网的k8s集群 大佬给出的解决方案有两种,一是虚拟出一个绑定公网IP的网卡;二是使用k8s v1.8.0 + 版本引入的分段初始化方法,在初始化etcd的时候指定配置文件—— 传送门——kubeadm init phase ; 公网部署的资料少得可怜,当初在找资料的时候,百度、谷歌、官网翻了好久,居然没发现这篇文章。。。ε=(´ο`*)))唉。 ===2020.4.6更 背景 一般情况下,"kubeadm"部署集群时指定"--apiserver-advertise-address=<public_ip>"参数,即可在其他机器上,通过公网ip join到本机器,然而,阿里云ecs里没配置公网ip,etcd会无法启动,导致初始化失败。 环境、工具 阿里云ECS学生机、ECS对应的公网ip、kubeadm1.15.4、kubelet1.15.4、kubectl1.15.4、ubuntu18.04.3、linux4.15.0-66-generic、docker18.9.7 步骤 准备 该实现需要在kubeadm初始化过程中对etcd进行修改,而kubeadm初始化是阻塞的,因此,需要建立两个ssh对话,即用ssh工具新建两个标签

Portworx Certified Admin (PCA) 认证工程师火热上线!

主宰稳场 提交于 2020-04-14 00:24:28
【今日推荐】:为什么一到面试就懵逼!>>> Portworx Certified Admin (PCA) 认证工程师课程和考试上线啦! Portworx与全世界最领先的 Certified Kubernetes Administrator (CKA, https://www.cncf.io/certification/cka/) 培训和认证机构KodeKloud合作,带来深入的Kubernetes的存储平台的课程、动手实验和考试认证。课程通过全球最流行的Udemy.com培训平台在线对外提供。 Portworx Certified Admin (PCA) 是在 Portworx Foundamentals 课程之上的深入技术培训和认证考试。课程内容主要集中在Kubernetes云原生存储技术,覆盖如何在Kubernetes上通过Portworx存储平台来运行有状态应用,让学员进一步理解和掌握Portworx云原生持久存储和数据管理,对于在生产系统运行有状态应用的团队具备很高的价值。 Portworx Fundamentals 课程 – 免费https://www.udemy.com/course/portworx-fundamentals/ Portworx Certified Admin (PCA) 课程 https://www.udemy.com/course/portworx

第8章 了解kubernets机理

两盒软妹~` 提交于 2020-04-11 19:52:00
控制组件状态(etcd--api---[scheduler,controller-manager]) kubectl get componentstatus NAME STATUS MESSAGE ERROR controller-manager Healthy ok scheduler Healthy ok etcd-0 Healthy {"health":"true"} 工作组件(api--[kube-proxy,kubelet]---docker) 各组件以POD运行 kubectl get pod -o custom-columns=POD:metadata.name,NODE:spec.nodeName --sort-by spec.nodeName -n kube-system POD NODE coredns-6967fb4995-c9jlr minikube coredns-6967fb4995-f2zzv minikube etcd-minikube minikube kube-addon-manager-minikube minikube kube-apiserver-minikube minikube kube-controller-manager-minikube minikube kube-proxy-f6ctq minikube kube

GaussDB T 1.0.2分布式集群部署故障总结

≡放荡痞女 提交于 2020-04-11 13:19:35
之前安装GaussDB T 1.0.2分布式集群的时候,安装过程中会报segmentation fault错误,如下: [omm@hwd01 ~]$ gs_install -X /mnt/Huawei/db/clusterconfig.xml Parsing the configuration file. Check preinstall on every node. Successfully checked preinstall on every node. Creating the backup directory. Successfully created the backup directory. Check the time difference between hosts in the cluster. Installing the cluster. Check install cluster condition. Successfully check install cluster condition. Installing applications on all nodes. Successfully installed APP. Initializing cluster instances Initializing ETCD instance.

kubernetes 高可用的配置

穿精又带淫゛_ 提交于 2020-04-10 08:13:02
kubernetes 高可用的配置 标签(空格分隔): kubernetes系列 一:kubernetes 高可用的配置 一:kubernetes 的 kubeadmn高可用的配置 二: 系统初始化 2.1 系统主机名 192.168.100.11 node01.flyfish 192.168.100.12 node02.flyfish 192.168.100.13 node03.flyfish 192.168.100.14 node04.flyfish 192.168.100.15 node05.flyfish 192.168.100.16 node06.flyfish 192.168.100.17 node07.flyfish ---- node01.flyfish / node02.flyfish /node03.flyfish 作为master 节点 node04.flyfish / node05.flyfish / node06.flyfish 作为work节点 node07.flyfish 作为 测试节点 keepalive集群VIP 地址为: 192.168.100.100 2.2 关闭firewalld 清空iptables 与 selinux 规则 系统节点全部执行: systemctl stop firewalld && systemctl disable

GaussDB T分布式集群部署以及升级指南

二次信任 提交于 2020-04-08 23:52:28
本文用四节点部署GaussDB T 1.0.1分布式集群,部署完成后再将其升级到1.0.2版本(直接安装1.0.2版本,在安装过程中会遇到segment fault报错,目前尚未解决)。前期操作系统准备工作参考之前的几篇文章。 1、部署分布式集群 1.1 节点信息 各节点信息如下表所示: 1.2 集群参数文件 根据实际情况修改集群参数,或者通过database manager工具生成,内容如下: [root@onas db]# vi clusterconfig.xml <?xml version="1.0" encoding="UTF-8"?><ROOT> <CLUSTER> <PARAM name="clusterName" value="GT100"/> <PARAM name="nodeNames" value="hwd08,hwd09,hwd10,hwd11"/> <PARAM name="gaussdbAppPath" value="/opt/huawei/gaussdb/app"/> <PARAM name="gaussdbLogPath" value="/var/log/huawei/gaussdb"/> <PARAM name="archiveLogPath" value="/opt/huawei/gaussdb/arch_log"/> <PARAM name=

K8S Pod status的状态分析

只愿长相守 提交于 2020-04-07 13:45:07
CrashLoopBackOff: 容器退出,kubelet正在将它重启 InvalidImageName: 无法解析镜像名称 ImageInspectError: 无法校验镜像 ErrImageNeverPull: 策略禁止拉取镜像 ImagePullBackOff: 正在重试拉取 RegistryUnavailable: 连接不到镜像中心 ErrImagePull: 通用的拉取镜像出错 CreateContainerConfigError: 不能创建kubelet使用的容器配置 CreateContainerError: 创建容器失败 internalLifecycle.PreStartContainer 执行hook报错 RunContainerError: 启动容器失败 PostStartHookError: 执行hook报错 ContainersNotInitialized: 容器没有初始化完毕 ContainersNotReady: 容器没有准备完毕 ContainerCreating:容器创建中 PodInitializing:pod 初始化中 DockerDaemonNotReady:docker还没有完全启动 NetworkPluginNotReady: 网络插件还没有完全启动 Pod有以下几个状态: Pending 等待中 Running 运行中

k8s集群部署六(部署master节点组件)

[亡魂溺海] 提交于 2020-04-07 12:12:11
首先需要下载master的二进制包,下载地址 https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG-1.9.md 我们需要下载的是 kubernetes-server-linux-amd64.tar.gz (本次使用的版本是1.9.1) 下载后解压 tar -xzvf kubernetes-server-linux-amd64.tar.gz cd kubernetes/server/bin 将我们需要的kube-apiserver,kube-controller-manager,kube-scheduler三个文件移动到/opt/kubernetes/bin/ mv kube-apiserver kube-controller-manager kube-scheduler /opt/kubernetes/bin/ 将之前的token.csv移动到/opt/kubernetes/cfg/目录下 mv token.csv /opt/kubernetes/cfg/ 新建apiserver.sh的文件,用于安装kube-apiserver touch apiserver.sh vim apiserver.sh 内容如下 #!/bin/bash MASTER_ADDRESS=${1:-"172.18.98.48"}

亲历者说:Kubernetes API 与 Operator,不为人知的开发者战争

你离开我真会死。 提交于 2020-04-06 22:03:32
原创作者:张磊、邓洪超 如果我问你,如何把一个 etcd 集群部署在 Google Cloud 或者阿里云上,你一定会不假思索的给出答案:当然是用 etcd Operator! 实际上,几乎在一夜之间,Kubernetes Operator 这个新生事物,就成了开发和部署分布式应用的一项事实标准。时至今日,无论是 etcd、TiDB、Redis,还是 Kafka、RocketMQ、Spark、TensorFlow,几乎每一个你能叫上名字来的分布式项目,都由官方维护着各自的 Kubernetes Operator。而 Operator 官方库里,也一直维护着一个知名分布式项目的 Operator 汇总。 https://github.com/operator-framework/awesome-operators 短短一年多时间,这个列表的长度已经增长了几十倍。 而且更有意思的是,如果你仔细翻阅这个 Operator 列表,你就不难发现这样一个有趣的事实:现今 Kubernetes Operator 的意义,恐怕已经远远超过了“分布式应用部署”的这个原始的范畴,而已然成为了容器化时代应用开发与发布的一个全新途径。所以,你才会在这个列表里看到,Android SDK 的开发者们,正在使用 Operator “一键”生成和更新 Android 开发环境;而 Linux 系统工程师们

傻傻分不清楚的kubernetes证书

女生的网名这么多〃 提交于 2020-04-06 11:47:25
傻傻分不清楚的kubernetes证书 kubeadm 生成的一坨证书是不是让人很蒙逼,这些东西没那么神奇,来深入扒扒其内裤。 root@k8s-master:/etc/kubernetes/pki# tree . |-- apiserver.crt |-- apiserver-etcd-client.crt |-- apiserver-etcd-client.key |-- apiserver.key |-- apiserver-kubelet-client.crt |-- apiserver-kubelet-client.key |-- ca.crt |-- ca.key |-- etcd | |-- ca.crt | |-- ca.key | |-- healthcheck-client.crt | |-- healthcheck-client.key | |-- peer.crt | |-- peer.key | |-- server.crt | `-- server.key |-- front-proxy-ca.crt |-- front-proxy-ca.key |-- front-proxy-client.crt |-- front-proxy-client.key |-- sa.key `-- sa.pub 1 directory, 22 files 从RSA说起