万兆光纤网卡

简谈以太网RDMA网卡的应用

女生的网名这么多〃 提交于 2020-03-24 09:31:20
各式各样的数据在网络介质中通过网络协议(如TCP/IP)进行传输时,如果信息量过大而不加以限制的话,那么超额的网络流量就会导致设备反应缓慢,由此就造成了网络延迟。 延迟越低越好,效率越高越好,这不仅仅是数据中心网络的要求,我们平常使用的内部网络同样也希望如此。当前的网络速度有万兆、2.5万兆、4万兆,甚至10万兆、20万兆……的趋势都已经来了,网络带宽似乎已经不是主要的瓶颈了,而服务器系统和CPU本身逐步转为了制约网络I/O的瓶颈,影响服务器的整体性能。 如何解决问题? 解决问题的基本思路就是:通过应用程序直接读取和写入远程内存,而无需CPU介入进行多次拷贝内存,还可绕过内核直接向网卡写数据,实现了高吞吐量、超低时延和低CPU开销的效果。 实现这样功能的技术就是RDMA(Remote Direct Memory Access)技术,也就把RDMA【远程直接数据存取】技术运用到了网卡控制器上。 那么具有RDMA功能的网卡和不具有RDMA网卡的有什么不同呢? 首先不具备RDMA功能的网卡的传输路径过程是:应用程序--->系统--->内存--->CPU--->内存--->硬盘---->内存--->网卡。 而具有RDMA功能的网卡,在进行数据传输时候,网卡绕过CPU来实现服务器间的内存数据交换:应用程序--->内存--->硬盘---->内存--->网卡。大大地简化了过程

一张国产网卡:同时使用万兆和千兆网络

一个人想着一个人 提交于 2020-03-24 08:39:07
通常情况下,当我们因业务发展而更新服务器网络设备时,总会遇到新老设备兼容性的问题而增加系统的不稳定性。例如:双口万兆光纤网卡,按需求一个业务口连接到万兆光纤交换机的网络上,另一个业务口连接到千兆光纤交换机的网络上,在实施试机调试的时候,连接万兆那边的很顺利,而连接到千兆的时候却怎么都链接不上,检查交换机没问题,检查网卡没问题,甚至把能检查的机器设备都检查了都没找到问题。 这就“恼火”了,究竟是什么问题呢? 这里面的主要问题是,在网络共享的计算机上使用了无法同时支持万兆和千兆的网卡上,有些光纤网卡只能支持一种速率,也就是万兆光纤网卡就只支持万兆这速率,支持不了千兆。 这个时候我们就需要能够同时支持万兆和千兆的网卡了。 联瑞LRES1002PF-2SFP+国产的具有自主知识产权的万兆以太网卡,在速率支持上可灵活地按实际使用需求采用10G+10G、10G+1G、1G+1G等三种速率进行工作,满足更多的使用需求。同时还可以兼容市面上几乎所有的光纤模块使用,具有广泛的兼容性。 如: 在操作系统的支持上,联瑞LRES1002PF-2SFP+除了可以支持常规使用Windows、CentOS操作系统外,主要是还能支持我们国产的系统平台,如飞腾平台、申威平台、龙芯平台、兆芯平台以及他们搭载的如银河麒麟、中标麒麟、深度操作系统等。 关于联瑞 深圳市联瑞电子有限公司(简称:深圳联瑞

Ceph万兆内网与系统万兆迁移

跟風遠走 提交于 2020-02-09 18:18:13
本文将总结一次为Ceph集群加装万兆内网(cluster network),后因需要对比实验来研究分布式存储集群在计算,网络,存储过程中各部分耗时比例,而将Ceph整体系统又整体搬移至万兆网的过程。但由于原始集群环境上还有其他不同的业务,为了不影响其他任务工作,本文确保以前的环境,配置,设备等不变,所以在整个过程中也是采坑不少! Ceph仅做内外网分离将内网设为万兆,整体系统提升效果不是很大,但生产环境下都这么做,最后为了测试将ceph都挂在新的万兆网下,但还是需要保证ceph集群与其他节点在原千兆网环境下可以互联互通。 原环境: 1. 纯电口千兆交换机 2. 内部局域网192.168.1.0/24,所有服务器通过一节点做转发连接外网。 3. 24台服务器,每个只有一块千兆网卡(双口),通过节点1(192.168.1.1)转发至外网。 4. 其中节点7,8,9配置为Ceph存储节点,节点6配置为Ceph Monitor节点。 5. 所有Ceph组件都配置在192.168.1.0/24的局域网网段下。 需求: 1. 在保留原环境的不动的前提下,将Ceph集群加装万兆内网,做内外网分离。 2. 实验进行完后,在原环境不动的前提下,将Ceph所有组件整体迁移到刚加小的万兆网环境下 因原网都在192.168.1.0/24网段下,而新交换机与老交换机之间无法连接(万兆到千兆

[转帖]InfiniBand, RDMA, iWARP, RoCE , CNA, FCoE, TOE, RDMA, iWARP, iSCSI等概念

为君一笑 提交于 2019-12-02 09:37:47
InfiniBand, RDMA, iWARP, RoCE , CNA, FCoE, TOE, RDMA, iWARP, iSCSI等概念 2017-12-15 15:37:00 jhzh951753 阅读数 1358 更多 分类专栏: 存储 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接: https://blog.csdn.net/jhzh951753/article/details/78813666 核心基础概念 FCoE:以太网光纤通道 (Fibre Channel Over Ethernet) 它是一个存储网络协议,允许在以太网上发送光纤通道帧, 且IP通信和光纤通道通信使用相同的以太网端口。 HBA: host bus adapter ,主机总线适配器 它是连接主机计算机到网络/存储设备的可插拔式卡,支持多种存储网络协议,HBA通常是扩展卡,如PCI Express卡,它插入主机计算机的总线传送iSCSI或FC协议。 OEM: 原始设备制造商(original equipment manufacturer) CNA: Converged network adapter ,融合网路适配器,也称C-NIC 作为计算机输入/输出设备,其融合了HBA和网络适配器的功能。简言之,通过CNA可同时访问SAN