Ceph万兆内网与系统万兆迁移
本文将总结一次为Ceph集群加装万兆内网(cluster network),后因需要对比实验来研究分布式存储集群在计算,网络,存储过程中各部分耗时比例,而将Ceph整体系统又整体搬移至万兆网的过程。但由于原始集群环境上还有其他不同的业务,为了不影响其他任务工作,本文确保以前的环境,配置,设备等不变,所以在整个过程中也是采坑不少! Ceph仅做内外网分离将内网设为万兆,整体系统提升效果不是很大,但生产环境下都这么做,最后为了测试将ceph都挂在新的万兆网下,但还是需要保证ceph集群与其他节点在原千兆网环境下可以互联互通。 原环境: 1. 纯电口千兆交换机 2. 内部局域网192.168.1.0/24,所有服务器通过一节点做转发连接外网。 3. 24台服务器,每个只有一块千兆网卡(双口),通过节点1(192.168.1.1)转发至外网。 4. 其中节点7,8,9配置为Ceph存储节点,节点6配置为Ceph Monitor节点。 5. 所有Ceph组件都配置在192.168.1.0/24的局域网网段下。 需求: 1. 在保留原环境的不动的前提下,将Ceph集群加装万兆内网,做内外网分离。 2. 实验进行完后,在原环境不动的前提下,将Ceph所有组件整体迁移到刚加小的万兆网环境下 因原网都在192.168.1.0/24网段下,而新交换机与老交换机之间无法连接(万兆到千兆