Kube

kubeadm单集群部署k8s1.15.1&calico网络

时间秒杀一切 提交于 2020-05-05 20:02:50
说明 本次实验在Windows下的VMware进行 系统配置及初始化配置在所有的主机执行 容器镜像全部替换为国内可拉取的 pod网络采用calico 实验环境 主机名 IP地址 角色 OS CPU/MEM 网卡/模式 平台 k8s-master01 192.168.181.158 master CentOS7.6 2C/2G x1/NAT VMware k8s-node1 192.168.181.159 node1 CentOS7.6 2C/2G x1/NAT VMware k8s-node2 192.168.181.160 node2 CentOS7.6 2C/2G x1/NAT VMware 初始配置 基本配置为三个主机都需要的操作 history格式设置 cat >> /etc/bashrc << "EOF" # history actions record,include action time, user, login ip HISTFILESIZE=4000 HISTSIZE=4000 USER_IP=`who -u am i 2>/dev/null| awk '{print $NF}'|sed -e 's/[()]//g'` if [ -z $USER_IP ] then USER_IP=`hostname` fi HISTTIMEFORMAT="%F %T

kubeadm单集群部署k8s1.15.1&flannel网络

被刻印的时光 ゝ 提交于 2020-05-05 19:05:56
说明 本次实验在Windows下的VMware进行 系统配置及初始化配置在所有的主机执行 容器镜像全部替换为国内可拉取的 pod网络采用flannel 实验环境 主机名 IP地址 角色 OS CPU/MEM 网卡/模式 平台 k8s-master01 192.168.181.158 master CentOS7.6 2C/2G x1/NAT VMware k8s-node1 192.168.181.159 node1 CentOS7.6 2C/2G x1/NAT VMware k8s-node2 192.168.181.160 node2 CentOS7.6 2C/2G x1/NAT VMware 初始配置 基本配置为三个主机都需要的操作 history格式设置 cat >> /etc/bashrc << "EOF" # history actions record,include action time, user, login ip HISTFILESIZE= 4000 HISTSIZE= 4000 USER_IP=` who -u am i 2> /dev/ null| awk '{print $NF}'|sed -e 's/[()]//g'` if [ -z $USER_IP ] then USER_IP=` hostname` fi HISTTIMEFORMAT= "%F

zookeeper,及k8s基础概念

喜你入骨 提交于 2020-05-05 15:59:39
1、描述zookeeper集群中leader,follower,observer几种角色 Zookeeper: 分布式系统:是一个硬件或软件组件分布在网络中的不同的计算机之上,彼此间仅通过消息传递进行通信和协作的系统。 特征: 分布性、对等性、并发性、缺乏全局时钟、故障必然会发生 典型问题: 通信异常、网络分区、三态(成功、失败、超时)、节点故障 zookeeper是一个开源的分面式协调服务,由知名互联网公司Yahoo创建,它是Chubby的开源实现;换句话讲,zk是一个典型的分布式数据一致性解决方案,分布式应用程序可以基于它实现数据的发布/订阅、负载均衡、名称服务、分布式协调/通知、集群管理、Master选举、分布式锁和分布式队列; 基本概念: 集群角色:Leader, Follower, Observer Leader:选举产生,读/写; Follower:参与选举,可被选举,读服务; Observer:参与选举,不可被选举,提供读服务; 会话:ZK中,客户端<-->服务端,TCP长连接; sessionTimeout 数据节点(ZNode):即zk数据模型中的数据单元;zk的数据都存储于内存中,数据模型为树状结构(ZNode Tree);每个ZNode都会保存自己的数据于内存中; 持久节点:仅显式删除才消失 临时节点:会话中止即自动消失 版本(version)

[转帖]国内拉取google kubernetes镜像

 ̄綄美尐妖づ 提交于 2020-05-05 14:11:04
国内拉取google kubernetes镜像 2019年04月19日 01:19:03 willblog 阅读数 4231 标签: kubernetes 更多 个人分类: kubernetes 版权声明:本文为博主原创文章,转载请注明出处。 https: // blog.csdn.net/networken/article/details/84571373 感谢原作者. 前言 国内可访问的镜像仓库 Docker Hub镜像仓库 https://hub.docker.com/ 阿里云镜像仓库: https://cr.console.aliyun.com RedHat镜像仓库: https://access.redhat.com/containers 国内无法访问的镜像仓库 google镜像仓库: https://console.cloud.google.com/gcr/images/google-containers/GLOBAL coreos镜像仓库: https://quay.io/repository/ 临时解决方法: 在部署kubernetes集群时,需要从google镜像仓库获取kubernetes组件相关镜像,以及从coreos仓库获取flannel网络插件等镜像,但dockerhub或阿里云仓库基本能够搜索到他人上传的包含这2个仓库中的镜像

虚拟机部署单机版kubernetes,minikube,docker

强颜欢笑 提交于 2020-05-05 13:11:29
# 目前公司用的是阿里云的容器服务 所以本地搭建个单机版 方便测试使用 # VMware® Workstation 12 Pro 版本 # 虚拟机环境配置:配置 2核 4G 网络桥接 # 系统镜像: CentOS-7-x86_64-Minimal-1810.iso 最好从阿里云镜像系统下载可以省去yum仓库的配置 # 网站地址: https://developer.aliyun.com/mirror/ # 下载 CentOS-7-x86_64-Everything-1908.iso 这个更省事 链接如下 https://mirrors.aliyun.com/centos/7.7.1908/isos/x86_64/CentOS-7-x86_64-Everything-1908.iso # docker 文档 https://docs.docker.com/engine/install/centos/ # 执行 su 切换到 root 用户 # 关掉防火墙 # systemctl stop firewalld # systemctl disable firewalld # 清理老版本 # sudo yum remove docker \ docker-client \ docker-client-latest \ docker-common \ docker-latest \

Kubernetes容器云——基础概念篇

怎甘沉沦 提交于 2020-05-05 13:03:09
Kubernetes容器云——基础概念篇 前言 ​ 前面我们讲解了有关docker的基础以及进阶的部分内容,本文开始将进入Kubernetes的云原生平台结合容器的云服务的世界。本文将从Kubernetes的基础概念,核心作用,基本组件、架构和原理来讲述Kubernetes,带你从入门到进阶搞定Kubernetes。 Kubernetes基础概念 从docker容器引入Kubernetes ​ 近十几年来,IT领域的技术发展可谓是日新月异,新的架构新的概念层出不穷,例如DevOPs、微服务、容器、云计算及区块链等。而由于各种业务的需要,IT应用模型也在不断变革,而前面所讲数的docker容器技术的出现,其终结了Devops中交付和部署环节因环境、配置及开发语言等不同因素造成的困境,如今愈来愈多的企业或组织开始选择以镜像文件为交付载体。容器镜像内包含了应用程序及其依赖的系统环境、库、基础程序等,从而可以在安装了容器引擎上直接运行。这样,IT运维工程师就无需关注编程语言和开发环境,只需要掌握管理容器的工具链即可。 新的问题 ​ 虽然部署简化了,但是以容器形式运行的应用程序之间的协同却是一个新的问题,于是各种编排系统应运而生,其中为代表的就是Kubernetes。 Kubernetes概述 ​ Kubernetes,来着希腊语,意为“舵手”或者说是“飞行员”

一步一步搞定Kubernetes二进制部署(一)——etcd集群搭建(单节点)

放肆的年华 提交于 2020-05-05 10:06:39
一步一步搞定Kubernetes二进制部署(一)——etcd集群搭建(单节点) 前言 ​ 前面简单介绍了Kubernetes的基础理论原理与核心组件,本文将给出单节点以二进制部署Kubernetes集群的第一个步骤——搭建etcd集群实验流程。 集群规划清单(之后的文章将按照该规划一步一步配置) 1、三个节点上部署etcd集群 2、两个node节点上部署docker环境、部署flannel(容器内部之间的通信,依赖于vxlan技术) 3、master节点上部署kube-apiserver、kube-controller-manager、kube-scheduler 4、node节点上部署kubelet、kube-proxy 服务器ip地址规划 master01地址:192.168.0.128 node01地址:192.168.0.129 node02地址:192.168.0.130 本文将给出的是etcd集群的搭建配置流程。 搭建流程 1、环境准备 ​ 三台服务器建议设置主机名称、绑定静态ip和关闭网络管理服务,其次需要关闭防火墙和核心防护,清空iptables 这里以master01为例,其他节点按照此节点类似设置即可 [root@localhost ~]# hostnamectl set-hostname master01 [root@localhost ~]# su

k8s概念和安装

家住魔仙堡 提交于 2020-05-04 20:52:27
每一轮新技术的兴起,对个人既是挑战也是机遇,新技术未必将来会成为主流,这需要自己的眼光判断。新技术意味着新的市场和需求,初期掌握这种技术的人并不多,而市场需求会越来越大。k8s毫无疑问已经成为并且长期会是主流,越早上车就意味着超越了一批同行。 核心概念 cluster 计算,存储,网络资源的集合 Master 主要负责调度 kube-apiserver kube-scheduler kube-conroller-manager etcd pod网络 Node 运行容器应用 kubelet kube-proxy pod网络 Pod 最小调度单位 相同的ip和port,可以用localhost通信,共享volume Controller k8s通过controller来管理pod,定义了pod的部署特性,如副本个数,在哪个node运行。 Deployment:管理pod的多个副本,并且以期望状态运行。 Replicaet:pod的副本管理 DaemonSet:每个Node最多运行一个pod副本。 StatefuleSet: Job:运行结束就删除 Service 定义外界访问pod的方式,有自己的端口和ip,提供负载均衡。 Namespace default:默认 kube-system: k8s自己创建的系统资源 安装 sudo su cat <<EOF > /etc/apt

[原]CentOS7安装Rancher2.1并部署kubernetes (二)---部署kubernetes

不羁岁月 提交于 2020-05-04 11:05:57
################## Rancher v2.1.7 + Kubernetes 1.13.4 ################ ####################### 以下为声明 ##################### 此文档是在两台机上进行的实践,kubernetes处于不断开发阶段 不能保证每个步骤都能准确到同步开发进度,所以如果安装部署过程中有问题请尽量google 按照下面步骤能得到什么? 1.两台主机之一会作为Rancher的server,另外一台作为Rancher Server的node节点添加进Rancher Server,得到安装好的Rancher,并以Rancher UI进行呈现 2.作为node节点的主机会被安装kubernetes,并以kubernetes dashboard的方式呈现 3.将建立一个登陆账号登陆kubernetes dashboard 并解决kubernetes dashboard token超时的问题 4.部署测试pod 和 container,(以nginx为例) 5,认识Rancher和kubernetes,知道其长什么样子能做什么工作。 6.此文不做生产环境使用,如果使用到生产环境,责任自负。只作为学习Rancher和kubernetes使用,由于时间关系,文中有错误的地方欢迎指正交流。 7.此文分为三部分:

Kubernetes-基于k8s-v1.14.2安装dashboard-1.10.1

本小妞迷上赌 提交于 2020-05-04 10:24:33
上篇文章中,已经完成了基于kubeadm安装的kubernetes集群,本文将基于上述的集群环境,搭建dashboard组件。 安装环境及版本 kubernetes版本及基础组件版本可参考前一篇安装集群环境的文章 dashboard组件:kubernetes-dashboard-v1.10.1 需准备的镜像: k8s.gcr.io/kubernetes-dashboard-amd64:v1.10.1 k8s.gcr.io/heapster-amd64:v1.5.4 k8s.gcr.io/heapster-influxdb-amd64:v1.5.2 k8s.gcr.io/heapster-grafana-amd64:v5.0.4 #!/bin/ bash DASHDOARD_VERSION =v1. 10.1 HEAPSTER_VERSION =v1. 5.4 GRAFANA_VERSION =v5. 0.4 INFLUXDB_VERSION =v1. 5.2 username =registry.cn-hangzhou.aliyuncs.com/ google_containers images = ( kubernetes -dashboard- amd64:${DASHDOARD_VERSION} heapster -grafana- amd64:${GRAFANA