Docker Compose

玩转dnmp之自定义PHP容器

痴心易碎 提交于 2020-11-02 14:25:31
文章简介 在前面几篇文章中,我们使用dnmp搭建了一个完整的docker开发环境。这篇文章接着分享如何在dnmp的基础上搭建一个自定义的PHP容器,实现多版本的PHP容器。 前期准备 首先我们下载 dnmp仓库 。 复制docker-compose.sample.yml文件为docker-compose.yml cp docker-compose.sample.yml docker-compose.yml 复制env.sample为.env cp env.sample ./env 修改配置 首先我们根据需要在.env文件中配置好PHP容器需要映射的端口等信息。添加如下配置(可放在任意位置): # # PHP73 # PHP73_VERSION=7.3.22 PHP73_PHP_CONF_FILE=./services/php73/php.ini PHP73_FPM_CONF_FILE=./services/php73/php-fpm.conf PHP73_LOG_DIR=./logs/php PHP73_EXTENSIONS=pdo_mysql,mysqli,mbstring,gd,curl,opcache PHP_SWOOLE1_PORT=9504 PHP_SWOOLE2_PORT=9505 PHP_SWOOLE3_PORT=9506 PHP_SWOOLE4_PORT=9507

玩转dnmp之MySQL实现主从复制操作

对着背影说爱祢 提交于 2020-11-02 13:56:23
文章回顾 前面几篇文章分别介绍了dnmp的相关文章,今天来分享一篇有关MySQL主从复制的文章,主要是介绍环境的搭建,具体配置在后面文章持续更新。 使用dnmp搭建一套集成开发环境 2.玩转dnmp之自定义PHP容器 3.玩转dnmp之端口配置 修改环境配置 修改环境配置,我们要涉及到两个配置文件,一个是.env文件,一个是docker-compose.yml文件。 修改.env文件 找到MySQL5的配置信息,将该配置信息复制一份,修改一下端口号和配置文件。修改端口切忌不要和存在映射的端口一致,避免冲突,导致容器创建失败。 修改docker-compose.yml文件。 找到MySQL5的文件信息,将.env对应的配置信息修到.yml文件即可。 启动容器 启动容器,使用下面的命令 docker-compose up 容器就自动创建成功了。 该命令必须在docker-compose.yml目录下面执行,否则是找不到该文件的。 测试容器 测试容器,我们直接使用docker ps 即可查看当前正在运行的容器。出现如下截图信息,即表示容器处于正常运行的状态了。 往期推荐 使用docker搭建一套开发环境全家桶 玩转dnmp之自定义容器 玩转dnmp之port篇 本文分享自微信公众号 - 卡二条的技术圈(qq1005349393)。 如有侵权,请联系 support@oschina.cn

Docker三剑客之一:Docker-compose

这一生的挚爱 提交于 2020-10-31 00:36:53
Docker容器编排技术 项目地址: https://github.com/docker/compose Compose 是用来定义和运行一个或多个容器应用的 工具 。 Compose 可以 简化 容器镜像的建立及容器的运行。 Compose 使用python语言开发,非常适合在 单机环境 里部署一个或多个容器,并自动把多个容器 互相关联 起来。 Compose 还是Docker 三剑客 之一。 本质 通过docker-api来与docker-server进行交互的。 两个重要概念 服务 ( service ):一个应用的容器,实际上可以包括若干运行相同镜像的容器实例。 项目 ( project ):由一组关联的应用容器组成的一个完整业务单元,在docker-compose.yml中定义。 安装docker # 安装依赖 yum install -y yum-utils device-mapper-persistent-data lvm2 # yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo # 指定docker社区版的镜像源 yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce

Hyperledger Fabric链码测试日志

纵然是瞬间 提交于 2020-10-29 14:19:44
Hyperledger Fabric链码测试日志 链码可以看成是在Hyperledger Fabric上的智能合约,本文可以在简单了解链码的概念之后在fabric-samples中进行链码测试。 1. 链码的安装、实例化、查询与调用 1.1 安装链码(调用链码处理交易前,需要把链码部署到Peer节点上,即安装+实例化) 首先启动网络,进入CLI容器,检查节点是否已经加入通道: peer channel list ##不出意外应该加入了mychannel的通道中 设置环境变量: export CHANNEL_NAME = mychannel 使用install命令安装链码: peer chaincode install -n mycc -v 1.0 -p github.com/chaincode/chaincode_example02/go/ 1.2 实例化链码 使用instantiate命令实例化链码(参数、背书策略): peer chaincode instantiate -o orderer.example.com:7050 --tls --cafile /opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer

听说,你的Loki还是单体?(下篇)

自作多情 提交于 2020-10-28 08:18:28
正文共729字 预计阅读时间:2分钟😂 相信大家看过 《听说,你的Loki还是单体?(上篇)》 之后对Loki的分布式架构有了一定的认识 ,那么本篇主要就是对上篇内容的实践。小白主要提供 docker-compose 和 helm 两种方式将部署Loki集群的Demo版本。 在正式部署之前,我们还是先来看下Loki整体架构如下图: 我们本次部署清单里面主要涉及到的组件如下: 组件 副本数 说明 Cassandra 1 Loki Index存储 Minio 1 Loki S3存储 Consul 1 Loki 组件状态和哈希环存储 Redis 1 Loki 缓存 Gateway 2 Loki 网关 Distributor 3 Loki 组件 Ingester 3 Loki 组件 Querier 3 Loki 组件 Query-Frontend 2 Loki 组件 Table-Manager 1 Loki 组件 下载部署代码 $ git clone https://github.com/CloudXiaobai/loki-cluster-deploy.git 声明:以下部署均适用于demo环境,大家切勿直接用于生产环境 对于生产环境,请务必先解决Cassandra和Consul服务的高可用 通过docker-compose部署 启动服务 $ cd loki-cluster-deploy

docker swarm和compose 的使用(阿里)

给你一囗甜甜゛ 提交于 2020-10-27 04:49:09
基本的docker使用参考: Docker 入门 到部署Web 程序- (阿里面试常用的docker命令和优点) 昨天去阿里面试 问我如果给你5台服务器 如何部署docker,我说一个个拷贝,面试官听了脸都绿了, 说有没有听说过用swarm和compose 部署docker集群,我说没用过, 后来回来一看自己的项目,我晕,每天用的yaml文件 就是 compose。 赶紧做一下总结:阿里的人喜欢让你写命令,比如 你是否记得 docker的部署命令启动命令之类的: 5. 部署与维护 docker stack 部署命令: docker stack deploy -c docker-compose.yml --with-registry-auth youclk, 私有仓库必须加 --with-registry-auth 才能下载镜像。除此之外常用的如下: # network volume service secret 用法都类似,同出一系嘛... docker stack ls docker stack ps youclk docker stack rm youclk docker service 我使用 Compose 的场景一般都结合 Swarm,因此很少去记手动创建或者更改配置的命令了,意义也不大。除了查看移除等与上文相似以外,此处还应记两个: docker service

附007.Docker全系列大总结

匆匆过客 提交于 2020-10-26 04:26:48
Docker全系列总结如下,后期不定期更新。 欢迎基于学习、交流目的的转载和分享,禁止任何商业盗用,同时希望能带上原文出处,尊重ITer的成果,也是尊重知识。 若发现任何错误或纰漏,留言反馈或右侧添加本人反馈。 正篇 001.Docker简介概述 002.Docker安装部署 003.Docker容器管理 004.Docker镜像管理 005.Docker存储管理 006.Docker网络管理 007.基于Docker的Etcd分布式部署 008.Docker Flannel+Etcd分布式网络部署 009.Docker Compose部署及基础使用 010.Docker Compose构建WordPress实战 011.Docker Compose部署Zabbix实战 012.Docker仓库管理 013.Docker私有仓库多Harbor同步部署 014.Docker Harbor+Keepalived+LVS+共享存储高可用架构 附加篇 附001.Docker阿里云Registry加速器配置 附002.Docker常见命令 附003.Docker Compose命令详解 附004.Docker Compose环境变量说明 附005.Docker Compose文件详解 附006.harbor.cfg配置文件详解 来源: oschina 链接: https://my

Docker三剑客之docker-compose

一笑奈何 提交于 2020-10-25 21:20:59
一、Compose简介 Compose是用于定义和运行多容器Docker应用程序的工具。通过Compose,可以使用YAML文件来配置应用程序的服务。然后,使用一个命令,就可以从配置中创建并启动所有服务。 Docker-Compose是一个容器编排工具。通过一个.yml或.yaml文件,将所有的容器的部署方法、文件映射、容器端口映射等情况写在一个配置文件里,执行docker-compose up命令就像执行脚本一样,一个一个的安装并部署容器。 Docker Compose将所管理的容器分为三层: 工程(project); 服务(service); 容器(container); docker compose运行目录下的所有yml文件组成一个工程,一个工程包含多个服务,每个服务中定义了容器运行的镜像、参数、依赖。一个服务可包括多个容器实例。 docker-compose就是docker容器的编排工具,主要就是解决相互有依赖关系的多个容器的管理。 二、Compose的安装使用 使用compose这个容器编排工具,必须下载docker-compose这个命令,那么们可以去github官方网站搜索“docker/compose”,如下: 1)、在docker主机上执行github上得到的命令,如下: //下载compose工具时

harbor 2.0 搭建docker私有仓库

淺唱寂寞╮ 提交于 2020-10-23 17:50:36
harbor Harbor 是一个CNCF基金会托管的开源的可信的云原生docker registry项目,可以用于存储、签名、扫描镜像内容,Harbor 通过添加一些常用的功能如安全性、身份权限管理等来扩展 docker registry 项目,此外还支持在 registry 之间复制镜像,还提供更加高级的安全功能,如用户管理、访问控制和活动审计等,在新版本中还添加了Helm仓库托管的支持。 Harbor最核心的功能就是给 docker registry 添加上一层权限保护的功能,要实现这个功能,就需要我们在使用 docker login、pull、push 等命令的时候进行拦截,先进行一些权限相关的校验,再进行操作,其实这一系列的操作 docker registry v2 就已经为我们提供了支持,v2 集成了一个安全认证的功能,将安全认证暴露给外部服务,让外部服务去实现。 环境准备 linux 3.10.0-957.5.1.el7.x86_64 centos 7.6.1810 配置 2c2g500g 安装 docker 安装 docker 为centos用户提供了三种安装方式,我们选择第一种,也是官网推荐的安装方式 移除旧的docker 依赖 sudo yum remove docker \ docker-client \ docker-client-latest \

在阿里云 ecs 机器上通过 docker 安装 kafka 集群

℡╲_俬逩灬. 提交于 2020-10-23 04:00:23
今天我开始在阿里云机器上通过 docker 来安装 kafka 集群服务。 在实际生产环境中,Kafka都是集群部署的,常见的架构如下: Kafka集群由多个Broker组成,每个Broker对应一个Kafka实例。Zookeeper负责管理Kafka集群的Leader选举以及Consumer Group发生变化的时候进行reblance操作。 一、Kafka集群搭建 1、首先运行Zookeeper(本文并未搭建ZK集群): docker run -d --name zookeeper -p 2181:2181 -t zookeeper 2、分别创建3个Kafka节点,并注册到ZK上: 不同Kafka节点只需要更改端口号即可。 Kafka0: docker run -d --name kafka0 -p 9092:9092 -e KAFKA_BROKER_ID=0 -e KAFKA_ZOOKEEPER_CONNECT=x.x.x.x:2181 -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://x.x.x.x:9092 -e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 -e KAFKA_HEAP_OPTS="-Xmx256M -Xms256M" -t wurstmeister/kafka Kafka1: