GlusterFS

ubuntu搭建glusterfs集群

别来无恙 提交于 2019-12-23 16:19:10
Ubuntu下Gluster 安装部署 (镜像) 1. 环境准备 机器名 eth0 说明 server01 192.168.100.30/24 Centos 6.3 64bit ,多准备一块磁盘 server02 192.168.100.31/24 Centos 6.3 64bit,多准备一块磁盘 Client 192.168.100.60/24 Centos 6.3 64bit 2. 格式磁盘并挂载(在两个节点上均做如下设置) 安装mkfs.xfs命令包 apt install xfsprogs mkfs.xfs -i size=512 /dev/sdb mkdir -p /export/brick1 修改分区表 vi /etc/fstab 末尾添加 /dev/sdb /export/brick1 xfs defaults 1 2 mount –a &&mount 3. 安装gluster(所有节点均需安装) 安装gluster apt install glusterfs-server 启动服务 service glusterd start service gluster status 4. 配置gluster 注:以下配置在任何一个节点上操作即可 配置对端信任节点(即镜像服务器) gluster peer probe 192.168.100.31 1.创建一个功能为镜像的集群卷

MongoDB : Is it possible to store “Data Directory” on GlusterFS Volume (across Multiple VMs), so that standby Mongo Server can use it when required?

。_饼干妹妹 提交于 2019-12-23 05:27:58
问题 I'm a newbie in MongoDB. And I'm sorry if the Question is not clear enough. What i mean is: I have clustered GlusterFS Volumes (configured on top of 2 CentOS ). Which means, same data directory can be read from both CentOS boxes: Lets call: CentOS-1 and CentOS-2 And i wanna install MongoDB Servers mongod on both CentOS boxes. But start (run) only one. (The other one on CentOS-2 might be purposely stopped) Then the Applications will be connecting to that one (current Active) on CentOS-1 . Here

GFS分布式文件系统集群——理论

一个人想着一个人 提交于 2019-12-19 08:53:13
GFS分布式文件系统集群 GlusterFS概述 GlusterFS简介 开源的分布式文件系统 由存储服务器,客户端以及NFS/Samba存储网关组成 无元数据服务器 RDMA:负责数据传输 GlusterFS的特点 扩展性和高性能 高可用性 全局统一的命名空间 弹性卷管理 基于标准协议 GlusterFS术语 Brick : 存储节点 Volume : 卷 FUSE : 内核模块,用户端的交互模块 VFS : 虚拟端口 Glusterd : 服务 模块化堆栈架构 模块化、堆栈式的架构 通过对模块的组合,实现负责的功能 GlusterFS工作模式 Application:客户端或应用程序通过GlusterFSync的挂载点访问数据 VFS:linux系统内核通过VFS API收到请求并处理 FUSE : VFS 将数据递交给FUSE内核文件系统,fuse 文件系统则是将数据通过/dev/fuse设备文件递交给了GlusterFS client端 GlusterFS Client ; 通过网络将数据传递至远端的GlusterFS Server,并且写入到服务器存储设备上 GlusterFS工作原理 GlusterFS工作流程 弹性HASH算法 通过HASH算法得到一个32位的整数 划分为N个连续的子空间,每个空间对应一个Brick 弹性HASH算法的优点

Glusterfs can not quota on non-existing directory

邮差的信 提交于 2019-12-13 16:13:48
问题 I am using glusterfs 3.7.6. The Gluster Documentation says, Note You can set the disk limit on the directory even if it is not created. The disk limit is enforced immediately after creating that directory. But, when I try to quota on non-existing directory, it fails and shows below message. $ gluster volume quota testVolume limit-usage /quota1 10MB quota command failed : Failed to get trusted.gfid attribute on path /quota1. Reason : No such file or directory please enter the path relative to

GlusterFS deployment on k8s cluster— Readiness probe failed: /usr/local/bin/status-probe.sh

别来无恙 提交于 2019-12-11 19:29:45
问题 Setup: GlusterFS on k8s(AKS) cluster; Having issue while glusterfs deploy using gk-deploy; below shared few error snippets please suggest workaround to get my deployment going- thanks in advance. Getting same error : Events: Type Reason Age From Message ---- ------ ---- ---- ------- Warning Unhealthy 8m44s (x459 over 3h45m) kubelet, aks-nodepool1-70391060-0 Readiness probe failed: /usr/local/bin/status-probe.sh failed check: systemctl -q is-active gluster-blockd.service Warning Unhealthy 4m2s

Elk on Docker Swarm and glusterFS crash

强颜欢笑 提交于 2019-12-11 16:46:21
问题 I'm trying to deploy an ELK stack on docker swarm. If I bind the elastic data directory to a Docker volume there is no problem. The problems comes as soon as I try to bind the elstastic data directory to a glusterFS volume. I use glusterFS to synchronise the data between all the swarm nodes in the cluster. I deploy ELK using the following code: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:6.2.3 # container_name: elasticsearch environment: - "http.host=0.0.0.0" -

基于GFS实现KVM的高可用及热迁移

十年热恋 提交于 2019-12-09 16:01:34
一、GlusterFS概述 GlusterFS (Gluster File System) 是一个开源的分布式文件系统,主要由 Z RESEARCH 公司负责开发。GlusterFS 是 Scale-Out 存储解决方案 Gluster 的核心,具有强大的横向扩展能力,通过扩展能够支持数PB存储容量和处理数千客户端。GlusterFS 借助 TCP/IP 或 InfiniBand RDMA 网络将物理分布的存储资源聚集在一起,使用单一全局命名空间来管理数据。GlusterFS 基于可堆叠的用户空间设计,可为各种不同的数据负载提供优异的性能。 GlusterFS 总体架构与组成部分如图1所示,它主要由存储服务器(Brick Server)、客户端以及 NFS/Samba 存储网关组成。不难发现,GlusterFS 架构中没有元数据服务器组件,这是其最大的设计这点,对于提升整个系统的性能、可靠性和稳定性都有着决定性的意义。 GlusterFS 支持 TCP/IP 和 InfiniBand RDMA 高速网络互联。 客户端可通过原生 GlusterFS 协议访问数据,其他没有运行 GlusterFS 客户端的终端可通过 NFS/CIFS 标准协议通过存储网关访问数据(存储网关提供弹性卷管理和访问代理功能)。 存储服务器主要提供基本的数据存储功能,客户端弥补了没有元数据服务器的问题

Kubernetes 持久化存储之GlusterFS

感情迁移 提交于 2019-12-08 22:25:35
GlusterFS 是一个开源的分布式文件,具有强大的横向扩展能力,可支持数PB存储容量和数千客户端,通过网络互连成一个并行的网络文件系统。具有扩展性、高性能、高可用性等特点。 前提:必须要在实验环境中部署了Gluster FS集群,文中创建了名为:gv0的存储卷 1.创建 endpoint ,文件名为 glusterfs_ep.yaml $ vi glusterfs_ep.yaml apiVersion: v1 kind: Endpoints metadata: name: glusterfs namespace: default subsets: # 添加GlusterFS各个集群的IP地址 - addresses: - ip: 10.0.0.41 - ip: 10.0.0.42 ports: # 添加GlusterFS端口号 - port: 49152 protocol: TCP 执行yaml $ kubectl create -f glusterfs_ep.yaml endpoints/glusterfs created // 查看创建好的endpoints [root@k8s-master01 ~]# kubectl get ep NAME ENDPOINTS AGE glusterfs 10.0.0.41:49152,10.0.0.42:49152 15s 2

Glusterfs Not Replicating data

折月煮酒 提交于 2019-12-07 09:38:20
问题 I have a glusterfs setup with two nodes (Node1 and Node2). I see connection has made between two connection. Problem is when I create some folders on Node1 it does not replicate it on Node2. Please suggest me to overcome if any one had fixed it? If I mount it on some other server as glusterfs client and create files and folders then its replicating to glusterfs nodes. Is this behavior normal? Volume Name: testvol Type: Replicate Status: Started Number of Bricks: 2 Transport-type: tcp Bricks:

两大主流开源分布式存储的对比:GlusterFS vs. Ceph

微笑、不失礼 提交于 2019-12-06 08:22:00
两大主流开源分布式存储的对比: GlusterFS vs. Ceph 存储世界最近发生了很大变化。十年前,光纤通道SAN管理器是企业存储的绝对标准,但现在的存储必须足够敏捷,才能适应在新的基础架构即服务云环境内运行。 GlusterFS和Ceph是在现代云环境中表现最出色的两个敏捷存储系统。 在讲述GlusterFS和Ceph的相同点和区别之前,我们先谈一谈云环境中敏捷存储的一些关键点。 纵向升级和横向扩展。在云环境中,很容易向服务器添加更多存储空间和扩展可用存储池。Ceph和GlusterFS都符合这一需求,让新的存储设备可以轻松融入现有存储产品环境。 高可用。GlusterFS和Ceph都会使用复制方法将数据同时写入不同存储节点。这种运作模式会增加读写次数,但同时也确保了数据的可用性。以Ceph为例,数据在默认情况会被复制到三个不同的节点,确保数据副本一直可用。 通用的硬件。GlusterFS和Ceph的开发基础都是Linux操作系统(OS)。因此,对于硬件的唯一要求就是:能够正常运行Linux即可。由于几乎任何商品硬件都能运行Linux操作系统,只要选择这些存储技术,这些技术的使用单位就可以大幅节省硬件投入。实际上,有许多公司也正在投资专用于GlusterFS或Ceph的硬件平台,因为专门优化的硬件可以更快速高效地访问存储空间。 去中心化