GlusterFS

k8s glusterfs存储的应用

江枫思渺然 提交于 2019-12-05 06:28:20
k8s glusterfs存储的应用 ###k8s glusterfs ##################################################### #####################################################在所有节点安装 yum install -y centos-release-gluster yum install glusterfs-server -y #在三个节点都安装glusterfs ##yum install -y glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma #配置 GlusterFS 集群: #启动 glusterFS systemctl restart glusterd.service systemctl enable glusterd.service mkdir -p /gfs1 ####只在主节点 gluster peer probe 192.168.3.223 gluster peer probe 192.168.3.224 gluster peer probe 192.168.3.225 gluster volume create gv1 replica 3 transport tcp 192.168.3

分布式文件系统---GlusterFS

十年热恋 提交于 2019-12-04 08:42:53
分布式文件系统   相对于本机端的文件系统而言,分布式文件系统(英语: Distributed file system , DFS ),或是网络文件系统(英语: Network File System ),是一种允许文件通过网络在多台主机上分享的文件系统,可让多机器上的多用户分享文件和存储空间   在这样的文件系统中,客户端并非直接访问底层的数据存储区块,而是通过网络,以特定的通信协议和服务器沟通。借由通信协议的设计,可以让客户端和服务器端都能根据访问控制清单或是授权,来限制对于文件系统的访问。 glusterfs是什么   Gluster是一个分布式文件系统。它是各种不同的存储服务器之上的组合,这些服务器由以太网或无限带宽技术Infiniband以及远程直接内存访问RDMA互相融汇,最终所形成的一个大的并行文件系统网络。   它有包括云计算在内的多重应用,诸如:生物医药科学,文档存储。Gluster是由GNU托管的自由软件,证书是AGPL。Gluster公司是Gluster的首要商业赞助商,且提供商业产品以及基于Gluster的解决方案。 来源: https://www.cnblogs.com/liujunjun/p/11850512.html

GlusterFS 部署

只愿长相守 提交于 2019-12-04 06:06:08
服务器 操作系统 系统IP 主机名 挂载磁盘 挂载目录 CentOS7.5 192.168.200.111 node1 /dev/sdb(3GB) /dev/sdc(4GB) /dev/sdd(5GB) /dev/sde(6GB) /b3 /c4 /d5 /e6 CentOS7.5 192.168.200.112 node2 /dev/sdb(3GB) /dev/sdc(4GB) /dev/sdd(5GB) /dev/sde(6GB) /b3 /c4 /d5 /e6 CentOS7.5 192.168.200.113 node3 /dev/sdb(3GB) /dev/sdc(4GB) /dev/sdd(5GB) /b3 /c4 /d5 CentOS7.5 192.168.200.114 node4 /dev/sdb(3GB) /dev/sdc(4GB) /dev/sdd(5GB) /b3 /c4 /d5 CentOS7.5 192.168.200.115 Client 服务器的相关信息 卷名称 卷类型 空间大/小/GB Brick dis-volume 分布式卷 12 node1(/e6)、node2(/e6) stripe-volume 条带卷 10 node1/d5)、node2(/d5) rep-volume 复制卷 5 node3/d5)、node4/d5) dis

GlusterFS分布式文件系统原理

自闭症网瘾萝莉.ら 提交于 2019-12-04 00:59:46
GlusterFS概述 GlusterFS(Gluster File System)是一个开源的分布式文件系统,主要由Z RESEARCH公司负责开发、是Scale-Out存储解决方案Gluster的核心,它是一个开源的分布式文件系统,在存储方面具有强大的横向扩展能力,通过扩展不同的节点可以支持数PB存储容量和处理数干台客户端。GlusterFS借助TCP/IP或InfiniBand RDMA网络将物理分布的存储资源聚集在一起,使用单一全局命名空间来管理数据。GlusterFS基于可堆叠的用户空间及无元的设计,可为各种不同的数据负载提供优异的性能。 GlusterFS主要由存储服务器(Block Server)、客户端及NFS/Samba存储网关(可选,根据需要选择使用)组成,GlusteFS架构中最大的设计特点是没有元数据服务器组件,这有助于提升整个系统的性能、可靠性和稳定性。 GlusterFS主要特征如下: 扩展性和高性能 高可用性 全局统一命名空间 弹性哈希算法 弹性卷算法 基于标准协议 GlusterFS的卷类型: GlusterFS支持七种卷,分布式卷、条带卷、复制卷、分布式条带卷、分布式复制卷、条带复制卷和分布式条带复制卷,这七种卷可以满足不同应用对高性能、高可用的需求。 1.分布式卷 分布式卷是GlusterFS的默认卷,在创建卷时,默认选项是创建分布式卷

GlusterFS 配置及使用

*爱你&永不变心* 提交于 2019-12-03 12:03:20
转载自:https://www.cnblogs.com/sxchengchen/p/7805667.html GlusterFS 配置及使用 GlusterFS 集群创建 一、简介 GlusterFS概述 Glusterfs是一个开源的分布式文件系统,是Scale存储的核心,能够处理千数量级的客户端.在传统的解决 方案中Glusterfs能够灵活的结合物理的,虚拟的和云资源去体现高可用和企业级的性能存储. Glusterfs通过TCP/IP或InfiniBand RDMA网络链接将客户端的存储资块源聚集在一起,使用单一的全局命名空间来管理数据,磁盘和内存资源. Glusterfs基于堆叠的用户空间设计,可以为不同的工作负载提供高优的性能. Glusterfs支持运行在任何标准IP网络上标准应用程序的标准客户端,如下图1所示,用户可以在全局统一的命名空间中使用NFS/CIFS等标准协议来访问应用数据. Glusterfs主要特征 扩展性和高性能 高可用 全局统一命名空间 弹性hash算法 弹性卷管理 基于标准协议 工作原理: 1) 首先是在客户端, 用户通过glusterfs的mount point 来读写数据, 对于用户来说,集群系统的存在对用户是完全透明的,用户感觉不到是操作本地系统还是远端的集群系统。 2) 用户的这个操作被递交给 本地linux系统的VFS来处理。 3)

Elk on Docker Swarm and glusterFS crash

匿名 (未验证) 提交于 2019-12-03 01:40:02
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: I'm trying to deploy an ELK stack on docker swarm. If I bind the elastic data directory to a Docker volume there is no problem. The problems comes as soon as I try to bind the elstastic data directory to a glusterFS volume. I use glusterFS to synchronise the data between all the swarm nodes in the cluster. I deploy ELK using the following code: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:6.2.3 # container_name: elasticsearch environment: - "http.host=0.0.0.0" - "transport.host=127.0.0.1" - "ELASTIC_PASSWORD=changeme"

kubernetes的应用数据持久化

匿名 (未验证) 提交于 2019-12-03 00:37:01
1.无状态应用与有状态应用 应用的有状态和无状态是根据应用是否有持久化保存数据的需求而言的,即持久化保存数据的应用为有状态的应用,反之则为无状态的应用。常见的系统往往是有状态的应用,比如对于微博和微信这类应用,所有用户发布的内容和留言都是要保存记录的。但是一个系统往往是由众多微服务或更小的应用模块构成的。有的微服务或模块其实并没有数据持久化的需求。例如,搭建一个Wordpress博客系统需要部署一个前端的PHP应用,以及一个后端的MySQL数据库。虽然整个博客系统有持久化的需求,是一个有状态的系统,但是其子模块前端PHP应用并没有将数据保存在本地,而是存放到MySQL数据库中。所以一个Wordpress系统可以拆解成一个无状态的前端以及一个有状态的后端。有状态和无状态的应用在现实当中比比皆是。从实例数量上来说,无状态的应用应该会更多一些,因为对大多数的系统而言,读请求的数量往往远远高于写请求的数量。 非持久化的容器 容器的一个特点是当容器退出后,其内部所有的数据和状态就会丢失。同样的镜像再次启动一个新的容器实例,该实例默认不会继承之前实例的状态。这对无状态应用来说不是问题,相反是一个很好的特性,可以很好地保证无状态应用的一致性。但是对于有状态的应用来说则是很大的障碍。试想一下,如果你的MySQL容器每次重启后,之前所有的数据都丢失了,那将会是怎样一种灾难! 容器数据持久化

Glusterfs的rpc模块实现(第四部分)

匿名 (未验证) 提交于 2019-12-03 00:27:02
前面两个小节分别对rpc服务端和客户端的建立流程做了详细的分析,也就是说rpc客户端和服务器端已经能够进行正常的通信了(rpc客户端已经通过connect链接上rpc服务器了),那么这一小节主要根据一个实际的例子来分析一个完整的rpc通信过程。 下面以客户端创建逻辑卷(volume)为例来分析rpc的通信过程,就以下面这个客户端的命令开始: gluster volume create test-volume server3:/exp3 server4:/exp4 先简单看看glusterfs的客户端是怎样开始提交rpc请求的,提交准备过程流程图如下: 从上面的流程图可以看出真正开始提交 rpc 请求调用还是从具体命令的回调函数开始发起的,上面的流程图主要展示的是准备工作,下面从具体命令的回调函数开始分析,这里分析的实例是创建逻辑卷的命令,执行的函数是 cli_cmd_volume_create_cbk ,主要实现代码如下: 1 proc = &cli_rpc_prog->proctable[GLUSTER_CLI_CREATE_VOLUME]; // 从rpc程序表中选择对应函数 2 3 frame = create_frame (THIS, THIS->ctx->pool); // 创建帧 4 5 ret = cli_cmd_volume_create_parse (words,

glusterfs集群安装

匿名 (未验证) 提交于 2019-12-02 23:42:01
版权声明:本文为博主原创文章,未经博主允许不得转载。如需转载必须通知本人,微信号: qinzhao990570827 https://blog.csdn.net/qq_21816375/article/details/91843866 环境准备 ϵͳ [root@VM_0_9_centos ~]# uname -a Linux VM_0_9_centos 3.10.0-957.el7.x86_64 #1 SMP Thu Nov 8 23:39:32 UTC 2018 x86_64 x86_64 x86_64 GNU/Linux [root@VM_0_9_centos ~]# cat /etc/redhat-release CentOS Linux release 7.6.1810 (Core) 硬盘:一块50G硬盘 [root@slave-09 ~]# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sr0 11:0 1 37.7M 0 rom vda 253:0 0 50G 0 disk └―vda1 253:1 0 50G 0 part / vdb 253:16 0 50G 0 disk ├―vdb1 253:17 0 45G 0 part └―vdb2 253:18 0 5G 0 part 节点信息 ip 主机名 172.17.0

Ceph与Gluster之开源存储的对比

雨燕双飞 提交于 2019-12-02 22:27:48
转载:https://www.cnblogs.com/happy-king/p/9193975.html#_label0 阅读目录 一、Ceph与Gluster之开源存储的对比 一、Ceph与Gluster的原理对比   Ceph和Gluster是Red Hat旗下的成熟的开源存储产品,Ceph与Gluster在原理上有着本质上的不同。   1、Ceph   Ceph基于一个名为RADOS的对象存储系统,使用一系列API将数据以块(block)、文件(file)和对象(object)的形式展现。Ceph存储系统的拓扑结构围绕着副本与信息分布,这使得该系统能够有效保障数据的完整性。   2、Gluster   Gluster描述为Scale-out NAS和对象存储系统。它使用一个Hash算法来计算数据在存储池中的存放位置,这点跟Ceph很类似。在Gluster中,所有的存储服务器使用Hash算法完成对特定数据实体的定位。于是数据可以很容易的复制,并且没有中心元数据分布式存储无单点故障且不易造成访问瓶颈,这种单点在早期Hadoop上出现,对性能和可靠性造成较大影响。 二、Ceph文件系统架构   RADOS(Reliable, Autonomic、Distributed Object Store)是Ceph系统的基础,这一层本身就是一个完整的对象存储系统,包括Cehp的基础服务