swarm

can not use user-defined bridge in swarm compose yaml file

匿名 (未验证) 提交于 2019-12-03 01:06:02
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: I learned from docker documentation that I can not use docker DNS to find containers using their hostnames without utilizing user-defined bridge network. I created one using the command: docker network create --driver=overlay --subnet=172.22.0.0/16 --gateway=172.22.0.1 user_defined_overlay and tried to deploy a container that uses it. compose file looks like: version: "3.0" services: web1: image: "test" ports: - "12023:22" hostname: "mytest-web1" networks: - test web2: image: "test" ports: - "12024:22" hostname: "mytest-web2" networks: -

docker swarm创建swarm集群

匿名 (未验证) 提交于 2019-12-03 00:11:01
三台linux主机 manager:192.168.100.151 work1:192.168.100.156 work2:192.168.100.157 manager docker swarm init --advertise-addr=192.168.100.151 会产生一个join-token: To add a manager to this swarm, run the following command: docker swarm join --token SWMTKN-1-17o3nuwv15qcg7f3omsxslb110nr54ndz4otwpjub6g9z18mdk-12aaimdkubrbm7j49pyd8xwo8 192.168.100.151:2377 work1 docker swarm join --token SWMTKN-1-17o3nuwv15qcg7f3omsxslb110nr54ndz4otwpjub6g9z18mdk-12aaimdkubrbm7j49pyd8xwo8 192.168.100.151:2377 work2 docker swarm join --token SWMTKN-1-17o3nuwv15qcg7f3omsxslb110nr54ndz4otwpjub6g9z18mdk

Centos7 Docker安装部署Rancher

匿名 (未验证) 提交于 2019-12-02 22:56:40
Rancher简介 Rancher 是一个开源的企业级容器管理平台。通过Rancher,企业再也不必自己使用一系列的开源软件去从头搭建容器服务平台。Rancher提供了在生产环境中使用的管理Docker和Kubernetes的全栈化容器部署与管理平台。主要包括服务管理,公有云节点管理,支持第三方用户权限管理,应用商店,api很是灵活,只是文档较少,让你更多的去参考 官方文档 。 Rancher结构 Rancher由以下四个部分组成: 1、基础设施编排 Rancher可以使用任何公有云或者私有云的Linux主机资源。Linux主机可以是虚拟机,也可以是物理机。Rancher仅需要主机有CPU,内存,本地磁盘和网络资源。从Rancher的角度来说,一台云厂商提供的云主机和一台自己的物理机是一样的。 Rancher为运行容器化的应用实现了一层灵活的基础设施服务。Rancher的基础设施服务包括网络, 存储, 负载均衡, DNS和安全模块。Rancher的基础设施服务也是通过容器部署的,所以同样Rancher的基础设施服务可以运行在任何Linux主机上。 2、容器编排与调度 很多用户都会选择使用容器编排调度框架来运行容器化应用。Rancher包含了当前全部主流的编排调度引擎,例如Docker Swarm, Kubernetes, 和Mesos

Portainer实战

≯℡__Kan透↙ 提交于 2019-12-02 22:32:20
Portainer是一个轻量级的Docker环境管理UI,可以管理docker host和docker swarm(我主要看中了能管理swarm这个,毕竟市面上能管理swarm的平台不多)。之所以说是轻量级的,是因为部署只有一个container,也可以使用二进制程序直接部署,不像rancher的部署,部署了一大堆container,而且portainer是跨平台的,windows和linux都可以部署,废话不多说,直接开干.... 环境 ubuntu16.04-1 swarm manager portainer ubuntu16.04-2 swarm works portainer agent ubuntu16.04-3 swarm works portainer agent ps:环境还是之前文章的swarm集群环境 部署 独立容器启动 docker run -d -p 9000:9000 --name portainer --restart always -v /var/run/docker.sock:/var/run/docker.sock -v /path/on/host/data:/data portainer/portainer ps:portainer的数据存储在容器内部的/data目录,这样容器重启的时候数据会丢失,所以要确保数据持久化 docker run -d

docker swarm

匿名 (未验证) 提交于 2019-12-02 21:56:30
docker swarm join-token [worker|manager] docker node ls 部署一个服务: docker service create --replicas docker service ls docker service ps server_name 更新swarm服务 修改一个swarm服务的实例数: 退出一个swarm组,如果是manager需要添加--force docker swarm leave [--force] 一个manager退出swarm组,并不会影响swarm组下的worker内的continer 文章来源: docker swarm

简易搭建swarm+etcd+docker

て烟熏妆下的殇ゞ 提交于 2019-12-02 21:10:39
概述 docker swarm是docker原生的集群管理工具,etcd是一个高可用的键值存储系统,主要用于共享配置和服务发现。本文就swarm、etcd和docker搭建一个简易的swarm+etcd+docker系统。希望能帮助新人对它们有一个直观的认知和了解。 基本架构 基本架构请参考官网 实验过程 机器分配 IP 角色 192.168.0.109 Client 192.168.0.201 etcd 192.168.0.202 docker host1 192.168.0.203 docker host2 192.168.0.204 swarm管理机 结构图 说明: 1、etcd是可以集群的,而且集群中的任何一个节点都可读写,具体的可以自己去实验,这里为了简化整个结构,etcd使用了一台 2、本次实验中的swarm并不是使用官网的镜像,而是源码编译安装在物理机上的 3、swarm管理机和所有的docker host主机都需要安装swarm。管理节点运行swarm manage命令,docker host主机运行swarm join命令 etcd单机启动 etcd --name etcd0 --initial-advertise-peer-urls http://192.168.0.201:2380 \ --listen-peer-urls http://192.168.0

快速入门docker swarm

两盒软妹~` 提交于 2019-12-02 21:10:27
概述 docker swarm 是一个用于创建Docker主机(运行Docker守护进程的服务器)集群的工具,它是docker原生的集群管理工具。使用Swarm操作集群,会使用户感觉就像是在一台主机上进行操作。它使用标准的docker API,这意味着其他使用Docker API的工具比如compose同样也能使用swarm。 ##基本架构 swarm的基本架构很简单,它只是一个分配与调度器,大体上分为四种结构: 第一种就是文件模式 每二种是节点模式 第三种是token模式 第四种是discovery模式 ** 说明:**前两种模式都不需要在docker主机上安装任何代理软件,只需要在swarm管理机中指定docker主机和端口号即可,discovery模式需要在每个主机上运行一个swarm代理(也就是swarm join),一个主机运行swarm管理器(也就是swarm manage)。 实验 本次实验为了简化复杂度,也是为了更快地对swarm有个直观的了解,我们采用swarm的节点模式。 ** 机器分配 ** IP----------------角色 192.168.0.201 Docker主机 192.168.0.202 Docker主机 192.168.0.203 Swarm管理机 ** 第一步 ** 把所有docker主机上的监听模式都改为端口监听方式

搭建 Docker Swarm 集群

我的梦境 提交于 2019-12-02 12:09:24
准备三台主机 A:192.168.1.5 B:192.168.1.7 C:192.168.1.10 Docker Swarm集群中的节点主机开放以下三个端口 2377端口, 用于集群管理通信 7946端口, 用于集群节点之间的通信 4789端口, 用于overlay网络流量 关闭防火墙 systemctl stop firewalld.service systemctl disable firewalld.service 在A上执行 创建集群并加入集群 $ docker swarm init --advertise-addr 192.168.1.5:2377 --listen-addr 192.168.1.5:2377 initialized: current node (sf4zgbesw21ko536rrgpxspv4) is now a manager. To add a worker to this swarm, run the following command: docker swarm join --token SWMTKN-1-3mlkj1pouzqm8mjdqdnj5gw30i4ahjw5aayfu177vzernbzmod-1svbkyjwzhv0swzojp6xh3shm 192.168.1.5:2377 查看集群中的节点 $ docker node ls

docker-swarm 命令

拜拜、爱过 提交于 2019-12-02 00:23:46
管理配置文件 docker config #docker config ls 查看配置文件 #将已有配置文件添加到docker 配置文件中 docker config create docker 配置文件名 本地配置文件 管理swarm 节点 docker node # 查看集群中的节点 - docker node ls # 将manager角色降级为worker - docker node demote 主机名 # 将worker角色升级为manager - docker node promote 主机名 # 查看节点的详细信息,默认json格式 - docker node inspect 主机名 # 查看节点信息平铺格式 - docker node inspect --pretty 主机名 # 查看运行的一个或多个及节点任务数,默认当前节点 - docker node ps # 从swarm中删除一个节点 - docker node rm 主机名 # 更新一个节点 - docker node update # 对节点设置状态(“active”正常|“pause”暂停|“drain”排除自身work任务) - docker node update --availability 管理敏感数据 docker secret # 服务栈,栈的形式,一般作为编排使用,格式与docker

CentOS 7 安装 GlusterFS

守給你的承諾、 提交于 2019-12-01 23:56:54
CentOS 7 安装 GlusterFS https://www.cnblogs.com/jicki/p/5801712.html改天测试一下 我一直没有搞这一块呢. CentOS 7 GlusterFS 环境说明: 3台机器安装 GlusterFS 组成一个集群。 使用 docker volume plugin GlusterFS 服务器: 10.6.0.140 10.6.0.192 10.6.0.196 配置 hosts 10.6.0.140 swarm-manager 10.6.0.192 swarm-node-1 10.6.0.196 swarm-node-2 client: 10.6.0.94 node-94 安装: CentOS 安装 glusterfs 非常的简单 在三个节点都安装glusterfs yum install centos-release-gluster yum install -y glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma 配置 GlusterFS 集群: 启动 glusterFS systemctl start glusterd.service systemctl enable glusterd.service 在 swarm-manager 节点上配置,将 节点 加入到