dpdk

Does DPDK require more than 1 NIC?

别等时光非礼了梦想. 提交于 2019-12-09 23:43:18
问题 I'm totally new to DPDK and have some weird questions that I cannot figure out by myself. Does DPDK require more than 1 NIC on my physical device? I saw some examples (l2fwd, l3fwd) that require 2 NICs, one is used for receiving packets and another one is used for transmitting packets. Since DPDK takes control of NICs, could I still normally access the Internet if I bind my only NIC to DPDK? I mean doing some normal stuff like surfing the web with Firefox. After binding the NICs, only DPDK

While using DPDK application, rte_eth_dev_count is returning 0 always

主宰稳场 提交于 2019-12-06 11:25:26
I have configured NIC cards as below:- [root@localhost ethtool]# ../../tools/dpdk-devbind.py -s Network devices using DPDK-compatible driver ============================================ 0000:81:00.0 'NetXtreme BCM5722 Gigabit Ethernet PCI Express' drv=igb_uio unused=tg3 Network devices using kernel driver =================================== 0000:02:00.0 '82599ES 10-Gigabit SFI/SFP+ Network Connection' if=ens513f0 drv=ixgbe unused=igb_uio 0000:02:00.1 '82599ES 10-Gigabit SFI/SFP+ Network Connection' if=ens513f1 drv=ixgbe unused=igb_uio 0000:04:00.0 'I350 Gigabit Network Connection' if=enp4s0f0

针对API 安全问题,F5 有什么解决方案?

£可爱£侵袭症+ 提交于 2019-12-06 08:25:52
     在技术形态上,API可以帮助应用服务之间实现更好的相互通信,帮助企业联结上下游关系,解锁数字商业模型。然而,随着企业应用微服务化的进一步深入,IDC调查显示,针对API 安全问题,API管理方案复杂,如何确保API 安全,以及生命周期管理是API部署中的三大挑战。本次,我将给大家分析如何联合F5与NGINX Plus实现更加安全的API部署与管控。   API gateway一般是作为系统边界存在,例如银行业务系统中的前置机其实就是一种API gateway,它对系统进行安全隔离,对服务进行抽象,同时还要负责认证、报文转换、访问控制等非业务性功能。现代API gateway得益于移动APP的飞速发展、企业对外部服务能力的进一步开放以及IoT的发展。   无论哪种形态的API gateway,其作用与价值主要表现在以下几个方面:   隔离   隔离是对企业系统安全的一种保护,由于API是在边界提供给企业组织之间或企业外部进行访问的,因此保证企业系统不受有威胁的访问是API的首要作用。API网关首先应能够保护业务系统免受意料之外的访问,这包含不正确或不规范的访问请求,恶意探测,DDOS攻击等,因此API网关自身在建设上需要考虑这些能力,无论是自主开发或是通过在API网关前部署专业的API保护设备。   解耦   服务的提供者往往希望服务具有始终稳定的服务提供能力

Does DPDK require more than 1 NIC?

淺唱寂寞╮ 提交于 2019-12-04 20:09:11
I'm totally new to DPDK and have some weird questions that I cannot figure out by myself. Does DPDK require more than 1 NIC on my physical device? I saw some examples (l2fwd, l3fwd) that require 2 NICs, one is used for receiving packets and another one is used for transmitting packets. Since DPDK takes control of NICs, could I still normally access the Internet if I bind my only NIC to DPDK? I mean doing some normal stuff like surfing the web with Firefox. After binding the NICs, only DPDK applications can access those NICs, or is there any way that normal applications can access them? I have

美团云OVS-DPDK 2017年工作总结(SRIOV、热升级、热扩容、跨OVS-kernel热迁移)

泪湿孤枕 提交于 2019-12-04 20:02:21
2017年,美团云网络研发团队,对OVS-DPDK的高可用方面,做了很多自研工作,解决了很多关键难题,同时也积累了很多switch性能优化的经验。 1. SRIOV方式优化local性能 KNI和TAP是常用的DPDK网络设备和内核数据交互的方案,为了提升Local port 的性能,满足一些宿主机特殊场景。美团云将SRIOV和BOND结合,优化OVS-DPDK bridge的local port性能,现在Local 可以跑满万兆。 2. 平滑热升级 OVS-DPDK进程重启时间长,一直是存在的一个重要问题。美团云在今年上半年,重点解决了这个问题。这里采用的方案主要是双进程模式,以及dpdk vhost后端双进程模式,同时也对restore flow时间做了优化。60+VM,10G,2000条流表的情况下,原生OVS-DPDK需要2min+时间,经过改造后,可以达到1s以内。达到了OVS-DPDK进程平滑热升级,以及故障快速自恢复的功能。 3. VM内存热扩容 云环境中,有很多用户有对动态VM内存热扩容的需求,原生OVS-DPDK还不支持大页VM的热扩容,会引发VM以及OVS进程crash。我们的技术同学对DPDK-VHOST端进行了修改,解决了crash问题。同时也分析了大内存VM初始化时间长的问题,解决了超大内容VM扩容时间长的问题。 4. 跨OVS-kernel和 OVS

新技术不断涌现,下一代云计算的突破口在哪里?

给你一囗甜甜゛ 提交于 2019-12-04 07:49:37
这是一个IT技术飞速发展的时代,在硬件基础设施的不断升级以及虚拟化网络等技术的日益成熟下,云厂商也正面临着各种新技术带来的巨大挑战。从数据中心的基础建设到云平台的系统构建再到产品底层的技术改革,该如何结合最新的技术趋势和用户日新月异的需求从而取得进一步发展呢?12月21日UCloud用户大会暨 Think in Cloud 2018上海站的’产品与技术专场’将会分享UCloud对这些问题的思考。 极简产品,极深技术 我们知道乔布斯一生都在奉行极简主义,极简主义强调在简单的产品设计上做到极致,但背后往往需要企业对用户需求的全面理解和深度挖掘。在这一方面,UCloud一直奉行“用户的需求就是下一个产品”的信念,在满足用户业务需求的同时,不断打磨产品的形态直至给用户呈现简单、直接、易用的稳定高可用云服务。例如ULB经过不断升级优化之后,性能大幅提升,同时功能上也实现了多种均衡算法、自动化容灾等,而用户界面则越来越简单,方便用户做智能选择,从而提高资源利用率。除了ULB之外,UCloud还有很多这样的产品设计案例。 一个企业要想始终走在行业前沿,必须要掌握自己的核心技术,提高技术壁垒。近6年的发展,UCloud紧跟新技术的步伐来加快新产品和功能的迭代:云主机5分钟可实现并发创建1000台、云主机内核热补丁在线热迁移、SSD云硬盘超高性能的13倍提升等等

针对API 安全问题,F5 有什么解决方案?

点点圈 提交于 2019-12-03 21:15:37
     在技术形态上,API可以帮助应用服务之间实现更好的相互通信,帮助企业联结上下游关系,解锁数字商业模型。然而,随着企业应用微服务化的进一步深入,IDC调查显示,针对API 安全问题,API管理方案复杂,如何确保API 安全,以及生命周期管理是API部署中的三大挑战。本次,我将给大家分析如何联合F5与NGINX Plus实现更加安全的API部署与管控。   API gateway一般是作为系统边界存在,例如银行业务系统中的前置机其实就是一种API gateway,它对系统进行安全隔离,对服务进行抽象,同时还要负责认证、报文转换、访问控制等非业务性功能。现代API gateway得益于移动APP的飞速发展、企业对外部服务能力的进一步开放以及IoT的发展。   无论哪种形态的API gateway,其作用与价值主要表现在以下几个方面:   隔离   隔离是对企业系统安全的一种保护,由于API是在边界提供给企业组织之间或企业外部进行访问的,因此保证企业系统不受有威胁的访问是API的首要作用。API网关首先应能够保护业务系统免受意料之外的访问,这包含不正确或不规范的访问请求,恶意探测,DDOS攻击等,因此API网关自身在建设上需要考虑这些能力,无论是自主开发或是通过在API网关前部署专业的API保护设备。   解耦   服务的提供者往往希望服务具有始终稳定的服务提供能力

docker中部署dpdk功能验证

↘锁芯ラ 提交于 2019-12-03 16:54:09
参考 DPDK Pktgen+Docker搭建VNF环境及验证 一文中的部署方法,在实际环境中进行验证;本文记录验证过程中遇到的坑以及解决方法,另外,还验证了另外一种部署方式。 方案一 拓扑图 docker0 开启docker0,并在docker0上启动testpmd,由testpmd创建两个vhost口,命令如下(关于testpmd的参数详情可以参考 这里 ): docker run -it -- privileged -- name = dpdk -docker0 -v /mnt/huge:/mnt/huge -v /tmp/virtio / :/tmp/virtio / dpdk -docker : 17.05 testpmd -l 0 - 1 -n 1 -- socket -mem 1024 , 1024 \ -- vdev 'eth_vhost0,iface=/tmp/virtio/sock0' -- vdev 'eth_vhost1,iface=/tmp/virtio/sock1' \ -- file -prefix = dpdk -- no -pci \ -- -i -- forward -mode = io -- auto -start docker1 同理,启动docker1和testpmd,命令如下: docker run -it -- privileged -

游戏开发经验谈(二):对战类全球服游戏的设计与实现

眉间皱痕 提交于 2019-12-03 07:34:09
上篇文章《游戏开发经验谈(一):游戏架构里隐藏的五个坑及其应对方案》,我们主要讲解了游戏架构设计当中隐藏的一些坑及其应对方案,错过的小伙伴可以回溯之前的内容。本期内容,将会重点介绍对战类全球服游戏的设计思路与技术实现。 对战类游戏的设计思路 协议的选择 游戏设计之初,需要决定选择哪种协议来进行通讯。对于对战类游戏来说,首先推荐的肯定是UDP。 尽管UDP对开发基础有较高的要求,需要开发者自己实现传输成功检验、重传以及可靠性保证等,但相对于低开发成本的TCP,UDP在效率和时效性上都有极大的优势,它可以根据业务特性进行短间隔重传,或者直接发送复数包来提高弱联网状态的成功率。 此外,相比于UDP的低延时,TCP的重传时间是秒级,对于对战类游戏来说,TCP的重传速度无疑会造成非常糟糕的玩家体验,虽然有BBR一类的技术,但也仅仅只能实现更高效的带宽利用,对于实际业务响应效率没有特别大的提升。 当然,除了技术角度分析,公司的实际情况也是需要纳入考虑的重要的一环。总体来说,COC、KOA(阿瓦隆之王)等地图类少交互的游戏用TCP是没有问题的,而CR(皇室战争)、自由之战、全民枪战、枪林弹雨,这类MOBA、FPS等强联网需求的对战游戏,UDP基本是必备的。 同步机制 帧同步: 快节奏、同时希望降低服务器不必要负载的对战类手游,帧同步是不二的选择。帧同步的好处是可以精减上传信息

How to release hugepages from the crashed application

匿名 (未验证) 提交于 2019-12-03 03:05:02
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: I have an application that uses hugepage and the application suddenly crashed due to some bug. After crashing, since the application does not release the hugepage properly, the free hugepage number is not increased in sys filesystem. $ sudo cat /sys/kernel/mm/hugepages/hugepages-2048kB/free_hugepages 0 $ sudo cat /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages 1024 Is there a way to release the hugepages by force? 回答1: HugeTLB can either be used for shared memory (and Mark J. Bobak's answer would deal with that) or the app mmaps files