ceph

ceph-常用命令

白昼怎懂夜的黑 提交于 2020-01-26 00:32:43
启动一个ceph进程 #启动mon进程 service ceph start mon.node1 #启动msd进程 service ceph start mds.node1 #启动osd进程 service ceph start osd.0 #查看机器的监控状态 ceph health #查看ceph的实时运行状态 ceph -w #检查信息状态信息 ceph -s #查看ceph存储空间 ceph df #删除一个节点的所有的ceph数据包 ceph-deploy purge node1 ceph-deploy purgedata node1 创建管理用户 #为ceph创建一个admin用户并为admin用户创建一个密钥,把密钥保存到/etc/ceph目录下: ceph auth get-or-create client.admin mds 'allow' osd 'allow *' mon 'allow *' > /etc/ceph/ceph.client.admin.keyring 或 ceph auth get-or-create client.admin mds 'allow' osd 'allow *' mon 'allow *' -o /etc/ceph/ceph.client.admin.keyring #为osd.0创建一个用户并创建一个key ceph auth

ceph SSD HDD分离与openstack调用

妖精的绣舞 提交于 2020-01-23 20:40:26
本例子ceph L版本采用的是filestore,而不是bluestore. 一、查看class类型,只有一个hdd,。Luminous 为每个OSD添加了一个新的属性:设备类。默认情况下,OSD将根据Linux内核公开的硬件属性自动将其设备类设置为HDD、SSD或NVMe(如果尚未设置)。这些设备类在ceph osd tree 中列出(实验环境无ssd硬盘,生产环境有ssd可以直接认到并自动创建ssd class,不需要第二步到第四步) , 修改前集群拓扑: [root@ceph1 ceph-install]# ceph osd tree ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -1 0.76163 root default -9 0.25388 rack rack01 -3 0.25388 host ceph1 0 hdd 0.07809 osd.0 up 1.00000 1.00000 1 hdd 0.07809 osd.1 up 1.00000 1.00000 6 hdd 0.09769 osd.6 up 1.00000 1.00000 -10 0.25388 rack rack02 -5 0.25388 host ceph2 2 hdd 0.07809 osd.2 up 1.00000 1.00000 3 hdd

转载:OSD接收IO流程

风流意气都作罢 提交于 2020-01-19 16:09:04
转载链接: https://www.cnblogs.com/yi-mu-xi/p/10282678.html 消息从(pipe.cc) pipe->reader() 处理后,若ms_can_fast_dispatch()就fast_dispatch()(DispatchQueue.cc ); 否则 in_q->enqueue()进入队列。 fast_dispatch() ---ms_fast_dispatch()【OSD.cc】 将message转化为OpRequestRef op,后续直接对这个op进行处理 1 //zym 处理client发来的各种消息 2 void OSD::ms_fast_dispatch(Message *m) 3 { 4 FUNCTRACE(cct); 5 //判断osd服务是否正在关闭,若是则减少一个message的引用,引用为0时空间会被释放。 6 if (service.is_stopping()) { 7 m->put(); 8 return; 9 } 10 11 // peering event? 12 switch (m->get_type()) { 13 case CEPH_MSG_PING: 14 dout(10) << "ping from " << m->get_source() << dendl; 15 m->put(); 16

(13)ceph osd down定位服务器slot

泄露秘密 提交于 2020-01-19 16:08:11
(1)找到可用硬盘 #blkid /dev/mapper/centos-root: UUID="903b5955-0ba9-4d76-8cb1-5b9e9d6eb9f2" TYPE="xfs" /dev/sda2: UUID="s61Ldp-VAaR-MwLR-8fa5-wFbQ-ln6l-VZsbkb" TYPE="LVM2_member" /dev/sda1: UUID="1676224e-9c9f-4350-8661-81c229bb2d88" TYPE="xfs" /dev/sdb: UUID="Y5TERc-SgYb-ekxZ-P84E-v1Vz-ESfu-XTWBAD" TYPE="LVM2_member" /dev/sdf: UUID="S6Jmoz-8spp-feJT-dP6g-soVA-iPNW-s91w9a" TYPE="LVM2_member" /dev/sde: UUID="MKgEN6-3k34-JjwE-Np1O-40zZ-zsac-xGsB2T" TYPE="LVM2_member" /dev/sdg: UUID="I7xfJC-C1b5-MC3d-J207-6shC-1JRb-gp32Jg" TYPE="LVM2_member" (2)找出所有hdd的序列号 shell# smartctl -i /dev/sdc smartctl 7.0 2018

Ceph日常运维管理和排错 -- <7>

随声附和 提交于 2020-01-18 02:15:15
Ceph日常运维管理 无弹窗小说网 m.amini.net 集群监控管理 集群整体运行状态 [root@cephnode01 ~]# ceph -s cluster: id: 8230a918-a0de-4784-9ab8-cd2a2b8671d0 health: HEALTH_WARN application not enabled on 1 pool(s) services: mon: 3 daemons, quorum cephnode01,cephnode02,cephnode03 (age 27h) mgr: cephnode01(active, since 53m), standbys: cephnode03, cephnode02 osd: 4 osds: 4 up (since 27h), 4 in (since 19h) rgw: 1 daemon active (cephnode01) data: pools: 6 pools, 96 pgs objects: 235 objects, 3.6 KiB usage: 4.0 GiB used, 56 GiB / 60 GiB avail pgs: 96 active+clean id:集群ID health:集群运行状态,这里有一个警告,说明是有问题,意思是pg数大于pgp数,通常此数值相等。 mon

Ceph存储池full等处理方式

孤人 提交于 2020-01-17 18:19:56
1.查看当前集群full以及nearfull的设置值,在Mon节点查询Mon配置 ceph --admin-daemon /run/ceph/ceph-mon.IP.asok config show | grep full_ratio 2.查看当前集群full以及nearfull的设置值,在其他节点查询osd配置 ceph --admin-daemon /run/ceph/ceph-osd.0.asok config show | grep full 3.遇到集群full的告警,并且存储不能写入数据了,紧急配置步骤 1)设置OSD禁止读写 ceph osd pause 2)通知Mon修改nearfull及full的阈值 ceph tell mon.* injectargs "--mon-osd-nearfull-ratio 0.96" ceph tell mon.* injectargs "--mon-osd-full-ratio 0.97" ceph tell osd.* injectargs "--mon-osd-nearfull-ratio 0.96" ceph tell osd.* injectargs "--mon-osd-full-ratio 0.97" 3)通知PG修改nearfull及full的阈值 ceph pg set_nearfull_ratio 0.96

运维常用的指令

假装没事ソ 提交于 2020-01-17 04:39:50
运维常用的指令:https://www.cnblogs.com/luoliyu/p/7765759.html 一、集群 1、启动一个ceph 进程 启动mon进程 service ceph start mon.node1 启动msd进程 service ceph start mds.node1 启动osd进程 service ceph start osd.0 2、查看机器的监控状态 [root@client ~]# ceph health HEALTH_OK 3、查看ceph的实时运行状态 [root@client ~]# ceph -w 4、检查信息状态信息 [root@client ~]# ceph -s 5、查看ceph存储空间 [root@client ~]# ceph df 6、删除一个节点的所有的ceph数据包 [root@node1 ~]# ceph-deploy purge node1 [root@node1 ~]# ceph-deploy purgedata node1 7、为ceph创建一个admin用户并为admin用户创建一个密钥,把密钥保存到/etc/ceph目录下: ceph auth get-or-create client.admin mds ‘allow’ osd ‘allow *’ mon ‘allow *’ > /etc/ceph/ceph

Ceph-rgw Service stop automatically after installation

不羁岁月 提交于 2020-01-16 09:39:07
问题 in my local cluster (4 Raspberry PIs) i try to configure a rgw gateway. Unfortunately the services disappears automatically after 2 minutes. [ceph_deploy.rgw][INFO ] The Ceph Object Gateway (RGW) is now running on host OSD1 and default port 7480 cephuser@admin:~/mycluster $ ceph -s cluster: id: 745d44c2-86dd-4b2f-9c9c-ab50160ea353 health: HEALTH_WARN too few PGs per OSD (24 < min 30) services: mon: 1 daemons, quorum admin mgr: admin(active) osd: 4 osds: 4 up, 4 in rgw: 1 daemon active data:

OpenStack

*爱你&永不变心* 提交于 2020-01-15 04:08:43
前言 OpenStack是 模仿亚马逊 AWS 使用python开发的 IssA层实现框架 ,openstack遵循Apache2.0协议,使我兴奋的是它的WEB管理模块 horizon ,是使用Django开发的,站在巨人的肩膀上,也许我可以对其 进行二次开发; openstack涉及知识大而全,本文主要介绍openstack以下内容 openstack概念 openstack主要 组件的介绍 以及 组件间的通信流程 openstack支持的几种网络模式 (vlam/ gre/ vxlan) openstack支持的分布式存储 (Ceph) 基于openstack搭建一个iaas层私有云环境 什么是OpenStack OpenStack是一个由NASA( 美国国家航空航天局 )和Rackspace合作研发并发起的,以 Apache 许可证授权的 自由软件 和 开放源代码 项目。 该项目采用了模块化设计 由众多的模块组成1个框架,各个模块负责自己不同的功能; 0.核心组件: Horzion :提供web页面让用户管理主机(创建主机、挂载云盘、绑定浮动IP) Nova: 支持各种虚拟机驱动(Vmware/Zen/KVM)调用虚拟机驱动创建出主机;(硬件资源供应商) Glance :给虚拟机提供镜像;(操作系统供应商) Newtron :Neurton实现了SDN(软件定义网络

Ceph日常运维管理和排错 -- <7>

孤街浪徒 提交于 2020-01-14 12:36:06
Ceph日常运维管理 集群监控管理 集群整体运行状态 [root@cephnode01 ~]# ceph -s cluster: id: 8230a918-a0de-4784-9ab8-cd2a2b8671d0 health: HEALTH_WARN application not enabled on 1 pool(s) services: mon: 3 daemons, quorum cephnode01,cephnode02,cephnode03 (age 27h) mgr: cephnode01(active, since 53m), standbys: cephnode03, cephnode02 osd: 4 osds: 4 up (since 27h), 4 in (since 19h) rgw: 1 daemon active (cephnode01) data: pools: 6 pools, 96 pgs objects: 235 objects, 3.6 KiB usage: 4.0 GiB used, 56 GiB / 60 GiB avail pgs: 96 active+clean id:集群ID health:集群运行状态,这里有一个警告,说明是有问题,意思是pg数大于pgp数,通常此数值相等。 mon:Monitors运行状态。 osd