rbd

ceph nautilus版本手动安装

怎甘沉沦 提交于 2020-03-05 07:22:47
一、准备工作 测试环境: vmware workstation15制作centos7虚拟机四台,分别命名为admin、node01、node02、node03.....(可安装一台,其他克隆即可)。 四台机器,一台admin,其他三台为node01,node02和node03。node01、node02和node03均为两块硬盘,一块安装系统,另一块做为osd。 测试环境都为一块网卡一个网络(实际环境分公共网络public network和集群网络cluster network)。 0、最小化安装centos7,配置网络连通性。(实际环境除了osd节点mon节点需要至少两块网卡) # vi /etc/sysconfig/network-scripts/ifcfg-ens* BOOTPROTO=none ONBOOT=yes IPADDR=192.168.129.131 NETMASK=255.255.255.0 GATEWAY=192.168.129.2 DNS1=8.8.8.8 1、关闭防火墙墙 #systemctl stop firewalld #systemctl disable firewalld 2、关闭selinux # setenforce 0 #vi /etc/selinux/config 修改SELINUX=disabled SELINUX=disabled

银行贴现收益率

女生的网名这么多〃 提交于 2020-03-01 19:17:32
银行以低于票面价格出售票据,到期以票面价格回收,计算收益率 r B D = F − P 0 F × 360 t r_{BD} = \frac {F - P_0} {F} \times \frac {360} {t} r B D ​ = F F − P 0 ​ ​ × t 3 6 0 ​ F: 票面价值 P 0 P_0 P 0 ​ : 出售价格 t: 到期天数 360: 年天数 来源: CSDN 作者: RayXLei 链接: https://blog.csdn.net/weixin_37562241/article/details/104595859

分布式存储ceph——(1)部署ceph

风流意气都作罢 提交于 2020-02-21 16:29:10
前言: 很多朋友想学ceph,但是开始ceph部署就让初学者举步为艰,ceph部署时由于国外源的问题(具体大家应该懂得),下载和安装软件便会卡住,停止不前。即使配置搭建了国内源后,执行ceph-deploy install 时又跑去了国外的源下载,很是无语呀!!!这样导致我们停下了学习ceph的脚步,所以笔者就在这里编写了这篇文章,只要掌握了通过国内源找到并下载对应正确的ceph版本rpm包到本地,部署ceph简直小意思! 一、部署准备: 准备5台机器(linux系统为centos7.6版本),当然也可以至少3台机器并充当部署节点和客户端,可以与ceph节点共用: 1台部署节点(配一块硬盘,运行ceph-depoly) 3台ceph节点(配两块硬盘,第一块为系统盘并运行mon,第二块作为osd数据盘) 1台客户端(可以使用ceph提供的文件系统,块存储,对象存储) (1)所有ceph集群节点(包括客户端)设置静态域名解析; 1 2 3 4 5 6 7 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 172.16.254.163 dlp

Ceph 块存储客户端配置(二)

帅比萌擦擦* 提交于 2020-02-10 17:29:43
一、Ceph RDB介绍 Ceph块设备,以前称为RADOS设备,为客户机提供可靠的、分布式的和高性能的块存储磁盘。RADOS块设备利用librbd库,并以顺序的形式在Ceph集群中的多个osd上存储数据块。RBD是由Ceph的RADOS层支持的,因此每个块设备都分布在多个Ceph节点上,提供了高性能和优异的可靠性。RDB有Linux内核的本地支持,这意味着RBD驱动程序从过去几年就与Linux内核集成得很好。除了可靠性和性能之外,RDB还提供了企业特性,例如:完整和增量快照、瘦配置、写时复制克隆、动态调整大小等等。RDB还支持内存缓存,这大大提高了其性能。任何普通的Linux主机(RHEL或基于debian的)都可以充当Ceph客户机。客户端通过网络与Ceph存储集群交互以存储或检索用户数据。Ceph RBD支持已经添加到Linux主线内核中,从2.6.34和以后的版本开始。 二、客户端安装Ceph软件包 2.1 检查内核是否支持RBD [root@192-168-5-70 ~]# uname -r 3.10.0-957.el7.x86_64 [root@192-168-5-70 ~]# modprobe rbd [root@192-168-5-70 ~]# echo $? 0 2.2 安装ceph软件 # 配置yum源 [root@192-168-5-70 ~]# vim

openstack高可用集群18-Ceph和openstack的对接

痞子三分冷 提交于 2020-02-05 23:54:22
Ceph对接Openstack 官方文档: https://docs.ceph.com/docs/master/rbd/rbd-openstack/ Ceph的一个使用场景是结合Openstack来提供云存储服务,Openstack到Ceph之间的调用堆栈就是下面这个结构: 三大模块 Openstack对接Ceph,有3大模块可以使用Ceph: 镜像 Openstack的Glance组件提供镜像服务,可以将Image直接存储在Ceph中。 操作系统盘 Openstack的Nova组件提供计算服务,一个虚机的创建必然需要操作系统,也就少不了系统盘,系统盘可以使用Ceph来提供。 非操作系统盘 Openstack的Cinder组件提供块存储服务,也就是我们物理机中的普通磁盘,也可以通过Ceph来提供。 以上3个组件从Openstack角度来说,是不同的3个模块,提供的服务也不同,但对于Ceph来说,都是一个Rbd Image,也就是一个块存储。 走的是同样的API,但是在一些属性和参数间存在一些差异。 在三大模块中增加ceph相关配置 1.Glance配置 # 在运行glance-api服务的节点修改glance-api.conf文件,含3个控制节点,以controller01节点为例 # 以下只列出涉及glance集成ceph的section [root@node1 ~]# vim

ceph部署步骤

跟風遠走 提交于 2020-01-30 12:27:48
环境说明: ip 服务 主机名 备注 172.20.101.5 ceph、ceph-deploy、mon admin-node mon节点 集群节点 172.20.101.13 ceph ceph1 osd 172.20.101.15 ceph ceph2 osd ######### 环境准备: 1 关闭 selinux 和 iptables systemctl stop firewalld systemctl disable firewalld setenforce 0 sed -i '/SELINUX/s/enforcing/disabled/' /etc/selinux/config setenforce 0 2 设置时间同步 yum -y install ntp systemctl enable ntpd systemctl start ntpd ntpdate -u cn.pool.ntp.org hwclock --systohc timedatectl set-timezone Asia/Shanghai 3 修改主机名和 host hostnamectl set-hostname admin-node hostnamectl set-hostname ceph1 hostnamectl set-hostname ceph2 vim /etc/hosts 172.20

ceph部署

岁酱吖の 提交于 2020-01-30 07:56:42
一、部署准备: 准备5台机器(linux系统为centos7.6版本),当然也可以至少3台机器并充当部署节点和客户端,可以与ceph节点共用: 1台部署节点(配一块硬盘,运行ceph-depoly) 3台ceph节点(配两块硬盘,第一块为系统盘并运行mon,第二块作为osd数据盘) 1台客户端(可以使用ceph提供的文件系统,块存储,对象存储) (1)所有ceph集群节点(包括客户端)设置静态域名解析; 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.253.135 controller 192.168.253.194 compute 192.168.253.15 storage 192.168.253.10 dlp (2)所有集群节点(包括客户端)创建cent用户,并设置密码,后执行如下命令: useradd cent && echo "123" | passwd --stdin cent echo -e 'Defaults:cent !requiretty\ncent ALL = (root) NOPASSWD:ALL

分布式存储-ceph

只愿长相守 提交于 2020-01-30 07:49:00
1. ceph 简介   Ceph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式文件系统()。ceph 的统一体现在可以提供文件系统、块存储和对象存储,分布式体现在可以动态扩展。在国内一些公司的云环境中,通常会采用 ceph 作为openstack 的唯一后端存储来提高数据转发效率。 Ceph项目最早起源于Sage就读博士期间的工作(最早的成果于2004年发表),并随后贡献给开源社区。在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被广泛应用。RedHat及OpenStack都可与Ceph整合以支持虚拟机镜像的后端存储。   官网:https://ceph.com/   官方文档:http://docs.ceph.com/docs/master/# 2. Ceph特点 高性能 :   1) 摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高。   2) 考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等。   3) 能够支持上千个存储节点的规模,支持TB到PB级的数据。 高可用性:   1) 副本数可以灵活控制。   2) 支持故障域分隔,数据强一致性。   3) 多种故障场景自动进行修复自愈。   4) 没有单点故障,自动管理。 高可扩展性:   1) 去中心化。   2) 扩展灵活。   3)

Ceph集群部署

烈酒焚心 提交于 2020-01-27 03:49:50
1.Ceph版本选择 (1)Ceph版本来源介绍 Ceph 社区最新版本是 14,而 Ceph 12 是市面用的最广的稳定版本。 第一个 Ceph 版本是 0.1 ,要回溯到 2008 年 1 月。多年来,版本号方案一直没变,直到 2015 年 4 月 0.94.1 ( Hammer 的第一个修正版)发布后,为了避免 0.99 (以及 0.100 或 1.00 ?),制定了新策略。 x.0.z - 开发版(给早期测试者和勇士们) x.1.z - 候选版(用于测试集群、高手们) x.2.z - 稳定、修正版(给用户们) x 将从 9 算起,它代表 Infernalis ( I 是第九个字母),这样第九个发布周期的第一个开发版就是 9.0.0 ;后续的开发版依次是 9.0.1 、 9.0.2 等等。 (2)Luminous新版本特性 Bluestore ceph-osd的新后端存储BlueStore已经稳定,是新创建的OSD的默认设置。 BlueStore通过直接管理物理HDD或SSD而不使用诸如XFS的中间文件系统,来管理每个OSD存储的数据,这提供了更大的性能和功能。 BlueStore支持Ceph存储的所有的完整的数据和元数据校验。 BlueStore内嵌支持使用zlib,snappy或LZ4进行压缩。(Ceph还支持zstd进行RGW压缩,但由于性能原因

ceph-常用命令

白昼怎懂夜的黑 提交于 2020-01-26 00:32:43
启动一个ceph进程 #启动mon进程 service ceph start mon.node1 #启动msd进程 service ceph start mds.node1 #启动osd进程 service ceph start osd.0 #查看机器的监控状态 ceph health #查看ceph的实时运行状态 ceph -w #检查信息状态信息 ceph -s #查看ceph存储空间 ceph df #删除一个节点的所有的ceph数据包 ceph-deploy purge node1 ceph-deploy purgedata node1 创建管理用户 #为ceph创建一个admin用户并为admin用户创建一个密钥,把密钥保存到/etc/ceph目录下: ceph auth get-or-create client.admin mds 'allow' osd 'allow *' mon 'allow *' > /etc/ceph/ceph.client.admin.keyring 或 ceph auth get-or-create client.admin mds 'allow' osd 'allow *' mon 'allow *' -o /etc/ceph/ceph.client.admin.keyring #为osd.0创建一个用户并创建一个key ceph auth