ceph

【海云捷迅云课堂】分布式存储系统纠删码技术分享

有些话、适合烂在心里 提交于 2020-10-04 02:29:48
云课堂专题 海云捷迅云课堂专题,旨在秉承开源理念,为大家提供OpenStack技术原理与实践经验,该专题文章均由海云捷迅工程师理论与实践相结合总结而成,如大家有其他想要了解的信息,可留言给我们,我们会根据问题酌情回复。 纠删码简介 随着计算机技术和存储技术的发展,数据正以爆炸式的速度增长,海量数据对存储系统提出了巨大的挑战。为了保障存储系统的CAP,Consistency(一致性)、 Availability(可用性)、Partition tolerance(分区容错性),对于可用性来说常见的2种技术是多副本和纠删码,多副本就是把数据复制多份分别存储到不同地方以实现冗余备份,这种方法容错性能较好但存储利用率低,比较典型的3副本磁盘利用率仅33.33%,当系统数据量很大时,多副本带来巨大的额外存储空间消耗,导致TCO居高不下。纠删码技术以牺牲CPU计算量和网络负载为代价,提高存储空间利用率,同时提供近似副本的可靠性。 纠删码(Erasure Coding, EC)算法起源于1960年,最早应用于通信系统领域。最著名的是范德蒙RS编码Reed-Solomon。随着时间的推移,出现了一些变种算法,例如柯西RS编码等。目前,纠删码技术在分布式存储系统中的应用主要有三类,阵列纠删码(Array Code: RAID5、RAID6等)、RS(Reed-Solomon)里德

ceph dashboard

痴心易碎 提交于 2020-10-03 14:26:47
ceph dashboard. ceph dashboard create-self-signed-cert ceph mgr services ceph dashboard set-login-credentials htt admin1234 来源: oschina 链接: https://my.oschina.net/innovation/blog/4285867

如何为Ceph选择合适的SSD?

妖精的绣舞 提交于 2020-10-03 13:19:10
1. 引言 如何为Ceph分布式存储选择合适的SSD这个问题看似简单,其实内藏不少玄机,不是所有的SSD都适合用,因为SSD有很多我们平时可能没有关注过的一些特性,这些特性会影响Ceph的使用性能或寿命,下面我们一一道来。 2. 如何为Ceph选择SSD? 2.1 - 类别 其实SSD是有分为企业级SSD和消费级SSD,企业级SSD磁盘的参数,如:性能、可靠性、耐久度都不是消费级SSD能比的,所以为Ceph选择合适的SSD规则就是: 不要使用消费级SSD,一定要使用企业级SSD。 按照固态硬盘应用场景的分类,可以分成三种:写入密集型、读取密集型和混合读写型。 写入密集型环境下对SSD耐写度要求高,通常使用MLC存储单元,要求SSD能长时间承受连续写入而不会导致性能严重下降。常用型号:英特尔 SSD DC P3700 系列,DWPD=10 (800G)。 读取密集型应用环境的SSD通常采用TLC甚至更低的存储单元,在NAND技术加持下,容量和耐写度得到了提升,而价格却很低廉。常用型号:英特尔 SSD DC S4500 系列,DWPD=1。 常用型号:混合型其实就是读密集型的基础上,能够承受更大一点的写入,性能依然不能和写密集型的相比。DWPD一般在1-10之间。 如果SSD做为Ceph日志盘使用,那么就选择写入密集性SSD。 2.2 - 耐久度 SSD耐久度就是SSD的寿命

kubernetes1.13.1部署metrics-server0.3.1

主宰稳场 提交于 2020-10-03 01:40:25
参考文档 https://kubernetes.io/docs/tasks/debug-application-cluster/core-metrics-pipeline/#metrics-server https://github.com/kubernetes-incubator/metrics-server/tree/master/deploy/1.8%2B https://www.cnblogs.com/cuishuai/p/9857120.html https://juejin.im/post/5b6592ace51d4515b01c11ed 文档目录 kubernetes1.13.1+etcd3.3.10+flanneld0.10集群部署 kubernetes1.13.1部署kuberneted-dashboard v1.10.1 kubernetes1.13.1部署coredns kubernetes1.13.1部署ingress-nginx并配置https转发dashboard kubernetes1.13.1部署metrics-server0.3.1 kubernetes1.13.1集群使用ceph rbd存储块 kubernetes1.13.1集群结合ceph rbd部署最新版本jenkins 简介 Metrics Server heapster 已经被废弃了

qemu-nbd 连接ceph rbd 镜像,dev目录未出现相应设备

一曲冷凌霜 提交于 2020-10-01 12:54:30
环境:CentOS 7.6,win7镜像 利用qemu-nbd连接镜像文件,raw格式需要指定--format raw,不然会有告警 qemu-nbd --format=raw -c /dev/nbd0 rbd:vms/bb4d8022-542c-43d3-addc-283d8b32e1a5_disk 连接成功,但是/dev/nbd0px未出现,这和连接本地qcow2文件表现不一样,同时lsblk是能看到设备的nbd0px的,这让我一度怀疑qemu-nbd直接连接ceph pool是不行的,但是qemu-nbd又没有报错,无意中翻到一个帖子 https://tuxera.com/forum/viewtopic.php?f=2&t=1120&start=0 查看了/dev/mapper 目录,果然在 ps:在试qemu-nbd之前,也试过其他方法,这里小结一下 rbd-nbd:效果和qemu-nbd一样,因为也是没有/dev/nbd0px,以为不行,后来重新试了下,也在/dev/mapper目录 rbd-fuse:貌似只能把一个池全部映射出来,并且需要对文件kpartx -av,这样是挂载到设备/dev/loop0,同样在/dev/mapper目录下存在分区 guestfish/guestmount ,不支持ntfs,从CentOS7.2版本之后就不支持了,有官方说明,如果需要支持

Ceph学习

半世苍凉 提交于 2020-10-01 12:35:34
文章目录 1、Ceph概述 1.1、什么是分布式存储 1.2、常见的分布式文件系统 1.3、什么是Ceph 1.3.1、Ceph简介 1.3.2、Ceph特点 1.3.3、Ceph组件 2、实验环境准备 3、部署Ceph集群 3.1、安装部署软件ceph-deploy 3.2、部署Ceph 集群 3.3、创建OSD 3.4、验证测试 3.5、扩展知识:创建ceph用户,查看用户 4、Ceph块存储 4.1、创建镜像 4.2、动态调整 4.3、通过KRBD访问 4.4、删除镜像 5、块存储应用案例 5.1、创建镜像快照 5.2、创建快照克隆 6、Ceph文件系统 6.1、什么是CephFS 6.2、什么是元数据 6.3、部署元数据服务器 6.4、创建Ceph文件系统 6.5、客户端挂载 7、对象存储服务器 7.1、什么是对象存储 7.2、创建对象存储 7.3、客户端测试 1、Ceph概述 1.1、什么是分布式存储 分布式存储是指一种独特的系统架构,它由一组网络进行通信、为了完成共同的任务而协调工作的计算机节点组成 分布式系统是为了用廉价的、普通的机器完成单个计算无法完成的计算、存储任务 其目的是利用更多的机器,处理更多的数据 1.2、常见的分布式文件系统 Lustre Hadoop FastDFS Ceph GlusterFS 1.3、什么是Ceph 1.3.1、Ceph简介

kubernetes快速入门9-存储卷volumes

老子叫甜甜 提交于 2020-10-01 11:10:18
kubernetes快速入门9-存储卷 volumes volumes的出现主要解决以下两个问题: 容器中数据的持久化,因容器中的文件是临时存放的,一旦容器崩溃后kubelet将重建容器,容器将以一个干净的状态被重建 一个Pod中多个容器间数据共享 存储大体上可以分为 本地类型存储 和 网络连接类型存储 ,而网络连接型的存储又可以分为 传统意义上的NAS和SAN存储 , 分布式类型网络连接存储 和 第三方云端存储 在k8s中pod是调度的最小单位,volumes也是挂载在pod上的。Kubernetes 可以支持许多类型的卷,Pod 也能同时使用任意数量的卷。使用卷时, Pod 声明中需要提供卷的类型 ( .spec.volumes 字段)和卷挂载的位置 ( .spec.containers.volumeMounts 字段). Volume的类型 emptyDir pods.spec.volumes emptyDir <Object> 空目录 medium <string> 卷的介质,默认值为"",表示使用节点的磁盘介质,也可以设置为Memory,表示使用内存 sizeLimit <string> 大小上限制,使用磁盘为存储介质时,大小限制取绝于磁盘大小 最佳实践:实际使用中,使用“emptyDir {}”,表示使用磁盘介质,大小也受限于磁盘

ceph pg scrub 源码分析

萝らか妹 提交于 2020-09-30 07:44:29
ceph scrub介绍 scrub的调度 1.1 相关数据结构 1.2 scrub的调度实现 1.2.1 OSD::sched_scrub函数 1.2.2 PG::sched_scrub()函数 1.3 scrub资源预约消息转换 scrub的实现 2.1 相关数据结构 2.1.1 Scrubber 2.1.2 Scrubmap 2.2 Scrub的控制流程 2.2.1 chunky_scrub() 2.3 构建Scrubmap 2.3.1 build_scrub_map_chunk 2.3.2 PGBackend::be_scan_list 2.3.3 ReplicatedBackend::be_deep_scrub 2.4 从副本处理,构建scrubmap 2.5 副本对比 2.5.1 scrub_compare_maps 2.5.2 be_compare_scrubmaps 2.5.3 be_select_auth_object 2.6 结束scrub过程 ceph scrub介绍 ceph通过scrub保证数据的一致性,scrub 以PG 的chunky为单位,对于每一个pg,ceph 分析该pg下的所有object, 产生一个类似于元数据信息摘要的数据结构,如对象大小,属性等,叫scrubmap, 比较所有有副本的scrubmap,选出auth 对象,通过对比auth

银河麒麟高级服务器操作系统V10

心不动则不痛 提交于 2020-09-30 06:39:40
银河麒麟高级服务器操作系统V10是针对企业级关键业务,适应虚拟化、云计算、大数据、工业互联网时代对主机系统可靠性、安全性、性能、扩展性和实时性的需求,依据CMMI 5级标准研制的提供内生安全、云原生支持、国产平台深入优化、高性能、易管理的新一代自主服务器操作系统;同源支持飞腾、龙芯、申威、兆芯、海光、鲲鹏等自主CPU及x86平台;可支撑构建大型数据中心服务器高可用集群、负载均衡集群、分布式集群文件系统、虚拟化应用和容器云平台等,可部署在物理服务器和虚拟化环境、私有云、公有云和混合云环境;应用于政府、国防、金融、教育、财税、公安、审计、交通、医疗、制造等领域。 产品特点 同源优化支持自主CPU 同源构建支持六大国产平台,内核、核心库和桌面环境等所有组件基于同一套源代码构建,并面向各自主CPU及服务器整机进行了针对性优化适配,为不同平台的软硬件生态提供兼容一致的开发和运行接口,为管理员提供一致的运维管理体验。 一体化内生本质安全 基于自主软硬件、密码技术的内核与应用一体化的内生本质安全体系:自研内核安全执行控制机制KYSEC、生物识别管理框架和安全管理工具,支持多策略融合的强制访问控制机制;支持国密算法SMx和可信计算TCM/TPCM、TPM2.0等;达到GB/T 20272第四级、B+级安全技术要求。 虚拟化及云原生支持 优化支持KVM、Docker、LXC虚拟化,以及Ceph

思维导图初体验——openstack

China☆狼群 提交于 2020-09-28 19:54:13
            RABBITMQ              memcache               keystone                glance                nova               neutron             horizon             cinder               ceph 来源: oschina 链接: https://my.oschina.net/u/4305979/blog/4524842