etcd

flannel实战

雨燕双飞 提交于 2020-11-24 03:15:37
docker swarm mode的出现是个里程碑,官方原生的编排调度看起来都成雏形了,但是swarm mode和容器外部系统的对接、网络性能始终不尽人意,swarm mode下各种开源周边不能使用,感觉swarm mode自成一个体系,网络方面上篇调研了calico,本篇调研一下flannel,总体感觉大家都是在向K8S靠拢,docker原生这也是凉凉嘛..... 软件信息 软件 版本 OS Ubuntu 16.04.3 LTS Docker 18.03.0-ce Etcd 3.3.9 Flannel 0.10.0 主机信息 ubuntu16.04-1 172.31.68.241 workload-A docker、etcd、flannel ubuntu16.04-2 172.31.68.242 workload-B docker、flannel ubuntu16.04-3 172.31.68.243 workload-C docker、flannel 工作目录 /opt/programs:各种软件的下载均在该目录下 docker安装 下载 wget 'https://download.docker.com/linux/ubuntu/dists/xenial/pool/stable/amd64/docker-ce_18.03.0~ce-0~ubuntu_amd64.deb' 安装

CentOS 7 Flannel的安装与配置

喜欢而已 提交于 2020-11-23 07:23:45
1. 安装前的准备 etcd 3.2.9 Docker 17.12.0-ce 三台机器10.100.97.236, 10.100.97.92, 10.100.97.81 etcd不同版本之间的差别还是挺大的,使用V3版本跟Flannel整合起来会有坑,下文详解。 2. 安装 sudo yum install -y flannel 安装后,版本是0.7.1 3. 在etcd中设置变量 1 etcdctl put /coreos.com/network/config ' { "Network": "172.17.0.0/16" } ' 2 curl -X PUT http: // 127.0.0.1:2379/v2/keys/coreos.com/network/config -d value='{ "Network": "172.17.0.0/16" }' 有两种方法可以设置,但是flannel 0.7.1版默认使用的是etcd V2的http接口,所以如果etcd是V3版本而且用第一种方法设置那么会导致fannel读取不到配置,运行flannel会报错failed to retrieve network config: 100: Key not found (/coreos.com);如果ectd是V2版本,那么两种方法设置都可以。 同时,如果出现类似的报错,可以使用下面的命令测试

Flannel配置详解

坚强是说给别人听的谎言 提交于 2020-11-22 21:02:55
[toc] 1、简介 Flannel是一种基于overlay网络的跨主机容器网络解决方案,也就是将TCP数据包封装在另一种网络包里面进行路由转发和通信, Flannel是CoreOS开发,专门用于docker多机互联的一个工具,让集群中的不同节点主机创建的容器都具有全集群唯一的虚拟ip地址 Flannel使用go语言编写 2、Flannel实现原理 2.1、原理说明 Flannel为每个host分配一个subnet,容器从这个subnet中分配IP,这些IP可以在host间路由,容器间无需使用nat和端口映射即可实现跨主机通信 每个subnet都是从一个更大的IP池中划分的,flannel会在每个主机上运行一个叫flanneld的agent,其职责就是从池子中分配subnet Flannel使用etcd存放网络配置、已分配 的subnet、host的IP等信息 Flannel数据包在主机间转发是由backend实现的,目前已经支持UDP、VxLAN、host-gw、AWS VPC和GCE路由等多种backend 2.2、数据转发流程 容器直接使用目标容器的ip访问,默认通过容器内部的eth0发送出去。 报文通过veth pair被发送到vethXXX。 vethXXX是直接连接到虚拟交换机docker0的,报文通过虚拟bridge docker0发送出去。 查找路由表

kubernetes 证书在线更新

无人久伴 提交于 2020-11-21 15:42:53
各个证书的过期时间 /etc/kubernetes/pki/apiserver.crt #1年有效期 /etc/kubernetes/pki/front-proxy-ca.crt #10年有效期 /etc/kubernetes/pki/ca.crt #10年有效期 /etc/kubernetes/pki/apiserver-etcd-client.crt #1年有效期 /etc/kubernetes/pki/front-proxy-client.crt #1年有效期 /etc/kubernetes/pki/etcd/server.crt #1年有效期 /etc/kubernetes/pki/etcd/ca.crt #10年有效期 /etc/kubernetes/pki/etcd/peer.crt #1年有效期 /etc/kubernetes/pki/etcd/healthcheck-client.crt #1年有效期 /etc/kubernetes/pki/apiserver-kubelet-client.crt #1年有效期 可用于检查证书过期时间: 方法1 kubeadm alpha certs check-expiration 方法2 openssl x509 -noout -dates -in /etc/kubernetes/pki/apiserver.crt

一波三折!业内“大师级Dubbo实战笔记”面世,果然来自阿里

一个人想着一个人 提交于 2020-11-21 12:14:36
过去十多年互联网产业的高速发展,在给社会带来深刻变革的同时,也催生了服务架构的演进:从传统的单体应用到面向服务的SOA,再到现今主流的微服务架构,而 Apache Dubbo就是微服务领域中的先行者和佼佼者。 Apache Dubbo是阿里巴巴于2011年开源的一款高性能Java RPC框架,在这方面阿里巴巴是有强力发言权的,不如跟着阿里的大佬来学一学这份业内公认的 “大师级Dubbo实战笔记” , 点赞+关注支持一下, 戳我免费获取,暗号:CSDN 第1章:Dubbo的简史、后续的规划和整体架构大图 ————Dubbo高性能RPC通信框架 1.1应用架构演进过程 1.2 Dubbo 简介 1.3 Dubbo总体大图 第2章:Dubbo的环境配置和基于Dubbo开发第一款应用程序 ————开发第一款Dubbo 应用程序 2.1配置开发环境 2.2基于XML配置实现 2.3基于注解实现 2.4基于API实现 2.5构建并运行 第3章:Dubbo内置的常用注册中心的实现原理 ————Dubbo注册中心 3.1注册中心概述 3.2订阅/发布 3.3缓存机制 3.4重试机制 3.5设计模式 第4章:Dubbo扩展点加载的原理和实现 ————Dubbo扩展点加载机制 4.1加载机制概述 4.2扩展点注解 4.3 ExtensionLoader 的工作原理 4.4扩展点动态编译的实现 第5章

Rancher2.x部署K8s

谁说我不能喝 提交于 2020-11-21 03:34:26
1、安装Docker [root@localhost ~]# docker - v Docker version 18.09 . 3 , build 774a1f4 2、使用Docker运行Rancher : stable [root@localhost ~]# docker run -d --restart=unless-stopped -p 80 : 80 -p 443 : 443 rancher/ rancher:stable Unable to find image ' rancher/rancher:stable ' locally stable: Pulling from rancher / rancher 6abc03819f3e: Pull complete 05731e63f211: Pull complete 0bd67c50d6be: Pull complete 67f26e57c9aa: Pull complete 0ae4a6d5c8c7: Pull complete bb5f8b86a713: Pull complete d67152696db5: Pull complete aa348b037a41: Pull complete 474a642b0dfb: Pull complete 0ee278656a03: Pull complete

kubernetes二进制部署单master节点

笑着哭i 提交于 2020-11-18 14:38:46
1、安装要求 在开始之前,部署Kubernetes集群机器需要满足以下几个条件: 三台机器,操作系统 CentOS7.7(mini) 硬件配置:2GBRAM,2vCPU+,硬盘30GB+ 集群中所有机器之间网络互通,且可访问外网。 采用NAT网络模型(依自己情况而定) 2、安装规划 (1)服务器规划 角色 IP master 192.168.50.128 node0 192.168.50.128 node1 192.168.50.131 node2 192.168.50.132 (2)软件环境 软件 版本 Docker 19.03.12 kubernetes 1.18.6 etcd 3.4.9 (3)软件规划 主机 安装组件 master kube-apiserver,kube-controller-manager,kube-scheduler,etcd node1 kubelet,kube-proxy,etcd node2 kubelet,kube-proxy,etcd 3、初始化系统 3.1、分步骤操作 (1)配置主机名 master节点设置: ~]# hostnamectl set-hostname master node1从节点设置: ~]# hostnamectl set-hostname node1 node2从节点设置: ~]# hostnamectl set

k8s1.9.2高可用集群配置

本小妞迷上赌 提交于 2020-11-14 17:11:43
部署高可用kubernetes集群-1.9.2 hujianxiong 2018年03月26日 308次浏览 1.kubernetes 高用可架构 loadbalancer loadbalancer 2.环境规划 k8s-v192-system k8s-v192-system k8s-v192-cluster k8s-v192-cluster 3.准备工作 修改主机名,kubernetes集群会识别主机名,确保主机名唯一(每台节点上) ${hostname}变量请替换成规划的主机名,比如ns.k8s.master01,ns.k8s.node01 $ hostnamectl set-hostname ${hostname} 安装Docker(每台节点上) #0.删除旧版dokcer,如果默认之前yum安装的1.12版本,可以这样删没装可以跳过此步 $ yum remove -y docker* #1.安装需要的包 $ yum install -y yum-utils \ device-mapper-persistent-data \ lvm2 libtool-ltdl libseccomp #2.添加阿里云源, $ yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker

EMQX环境搭建

雨燕双飞 提交于 2020-11-12 10:25:22
序言 说了懒得搭建EMQ集群环境,正好有点空隙时间,还是要弄一下。 另外补充一点:emqx的cluster跟redis的cluster机制是一样的,都是每个服务器都可以有不同的主题,当客户端订阅或者发布的时候,服务器内部会有自己的路由转发功能。 参考资料: https://docs.emqx.net/broker/v3/cn/install.html 环境搭建 单机环境搭建 EMQ X 消息服务器每个版本会发布 CentOS、Ubuntu、Debian、FreeBSD、macOS、Windows 、openSUSE 平台程序包与 Docker 镜像。---- 这里我们使用zip解压缩的方式安装EMQ X---cuiyaonan2000@163.com 下载地址: https://www.emqx.io/downloads #安装wget工具 [cuiyaonan2000@mzdssop bin]# yum install wget #安装unzip工具 [cuiyaonan2000@mzdssop bin]# yum install unzip #下载执行的版本的emqx [cuiyaonan2000@mzdssop bin]# wget https://www.emqx.io/downloads/broker/v4.2.2/emqx-centos7-4.2.2-x86_64