Ceph BlueStore与FileStore:利用Micron NVMe SSD进行性能比较

佐手、 提交于 2020-05-08 23:50:45

https://www.micron.com/about/blog/2018/may/ceph-bluestore-vs-filestoreblock-performance-comparison-when-leveraging-micron-nvme-ssds

 

BlueStoreCeph的新存储引擎,是社区版的默认配置。BlueStore性能数字不包含在我们当前的Micron Accelerated Ceph存储解决方案 参考架构中,因为Red Hat Ceph 3.0目前不支持它我在Ceph参考架构硬件上对社区版Ceph Luminous(12.2.4)进行了性能测试,并将结果与​​我们在此博客中在RHCS 3.0中实现的FileStore性能进行比较。

4KB随机写入IOPS性能提高18%,平均延迟降低15%,尾部延迟降低99.99%高达80%。使用BlueStore,在更高的队列深度下,4KB随机读取性能更好。

Ceph 4

该解决方案针对块性能进行了优化。使用Linux中的Rados Block Driver进行随机小块测试,在2插槽存储节点中使铂级8168 Intel Purley处理器饱和

每个存储节点有10个驱动器,该架构具有232TB的可用存储容量,可通过添加额外的1U存储节点进行扩展。

参考设计 - 硬件

Ceph 4

测试结果和分析

Ceph测试方法

Red Hat Ceph Storage 3.0(12.2.1)配置了FileStore,每个Micron 9200MAX NVMe SSD有2个OSD 每个OSD使用20GB日志。

Ceph Luminous Community(12.2.4)配置了BlueStore,每个Micron 9200MAX NVMe SSD有2个OSD。RocksDB和WAL数据与数据存储在同一分区中。

在这两种配置中,每个存储节点有10个驱动器,每个驱动器有2个OSD,总共80个OSD,可用容量为232TB。

测试的Ceph存储池是使用8192个放置组和2x复制创建的。使用100个RBD图像(每个75GB)测试性能,在2x复制池上提供7.5TB数据,总数据为15TB。

使用FIO对Rados Block Driver测量4KB随机块性能。我们在所有测试中都受CPU限制,即使每个存储节点有2个Intel 8168 CPU。

RBD FIO 4KB随机写性能:FileStore与BlueStore

BlueStore的IOPS增加约18%,平均延迟减少约15%。

Ceph 4

使用BlueStore,在更高的FIO客户端数量下,Ceph的尾部延迟也大大减少。在100个客户端,尾部延迟减少了4.3倍。在较低的客户端数量下,BlueStore的尾部延迟高于FileStore,因为BlueStore正在推动更高的性能。

Ceph 4

RBD FIO 4KB随机读取

FileStore和BlueStore之间的4KB随机读取性能相似。队列深度为32时,IOPS增加了5%。

Ceph 4

尾部延迟也类似于队列深度32,其中BlueStore表现更好。

Ceph Bluestore 6

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!