网卡功能

QEMU支持的网络模式

谁都会走 提交于 2019-11-29 11:20:45
网络是现代计算机系统不可或缺的一部分,QEMU也对虚拟机提供丰富的网络支持。qemu-kvm中主要给客户机提供了如下4种不同模式的网络。 (1)基于网桥(Bridge)的虚拟网卡 (2)基于NAT(Network Addresss Translation)的虚拟网络 (3)QEMU内置的用户模式网络(user mode networking) (4)直接分配网络设备(包括VT-d和SR-IOV) 本章主要讲述其中第1、2、3种模式,其中第4种网络设备的直接分配将在本书第5章中详细讲述。在介绍网络的章节,除了特别的需要iptables配置端口映射、数据包转发规则的情况,一般情况下,默认将防火墙所有规则都关闭以避免它妨碍客户机中的网络畅通,在实际生产环境中,请根据实际系统的特点进行配置。 QEMU命令行中,对客户机网络的配置(除了网络设备直接分配之外)都是用“-net”参数来进行配置的,如果没有设置任何的“-net”参数,则默认使用“-net nic -net user”参数从而使用完全基于QEMU内部实现的用户模式下的网络协议栈(将在4.4.4节详细介绍)。 qemu-kvm提供了对一系列主流和兼容性良好的网卡的模拟,通过“-net nic,model=?”参数可以查询到当前的qemu-kvm工具实现了那些网卡的模拟,如下命令行显示了qemu-kvm-1.1.0中能模拟的网卡种类。

DNS分离解析实战(可全程跟做)

天大地大妈咪最大 提交于 2019-11-29 08:03:27
实验达到的目的:根据不同区域来访者,解析同一个域名得到不同的地址 VMware中的实验环境准备: 1、Linux做网关为前提(需要一台CentOS) 2、内部局域网域名解析主机为:WIN 7-1 3、外部广域网域名解析主机为:WIN 7-2 此时CentOS 7作为网关需要两块网卡(一块对内,一块对外) 步骤如下: VMware中打开CentOS 7,先在主界面中右键点击选择打开终端 输入:yum install bind -y(此处需要在联网状态下先安装此服务) 再右键点击右下角网络适配器,选择设置,点击添加网络适配器,此时两块网卡全部选择仅主机模式,回到终端界面 输入:init6(重启识别两张网卡,以防后面服务启动出现问题) 再次开机后,进入终端界面,输入:ifconfig(此时可以看到两块网卡ens33和ens36) 实验中我们把ens33作为对内网卡,ens36作为对外网卡 首先配置网卡ens33 输入:cd /etc/sysconfig/network-scripts 输入:ls(看到ens33网卡的配置文件) 输入:vim ifcfg-ens33(对该网卡进行配置) 具体修改项如下图: 修改结束后,按Esc退出插入模式 输入:wq(保存退出) 因为新添加的ens36网卡没有配置文件,所以我们需要复制ens33的网卡配置文件在此目录下并命名为ens36,再对其进行配置修改

网卡配置bond(绑定)

旧街凉风 提交于 2019-11-28 22:50:27
网卡bond绑定,也称作网卡捆绑。就是将两个或者更多的物理网卡绑定成一个虚拟网卡。网卡是通过把多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡,在应用部署中是一种常用的技术。多网卡绑定实际上需要提供一个额外的软件的bond驱动程序实现。通过驱动程序可以将多块网卡屏蔽。对TCP/IP协议层只存在一个Bond网卡,在Bond程序中实现网络流量的负载均衡,即将一个网络请求重定位到不同的网卡上,来提高总体网络的可用性。 网卡绑定的目的: 1、提高网卡的吞吐量 2、增强网络的高可用,同时也能实现负载均衡 bond模式: (1)Mode=0(balance-rr)表示负载分担round-robin,平衡轮询策略,具有负载均衡和容错功能bond的网卡MAC为当前活动的网卡的MAC地址,需要交换机设备聚合模式,将多个网卡绑定为一条链路。 (2)Mode=1(active-backup)表示主备模式,具有容错功能,只有一块网卡是active,另外一块是备的standby,这时如果交换机配的是捆绑,将不能正常工作,因为交换机往两块网卡发包,有一半包是丢失的。 (3)Mode=2(blance-xor)表示XOR Hash 负载分担(异或平衡策略),具有负载均衡和容错功能,每个slave接口传输每个数据包和交换机的聚合强制下协商方式配合。(需要xmit_hash-policy)。 (4

xps9560黑苹果展示

a 夏天 提交于 2019-11-28 18:45:03
花费了一些时间来安装黑苹果 - - 。, 展示一波 更换了DW1820a无线网卡,花费70+ 手上这台笔记本,在安装黑苹果的时候基本没遇见太大的问题,一路顺风顺水. 桌面,程序坞调小放在左侧 极度舒适~ 原装网卡只能驱动蓝牙,WIFI无解。DW1560,DW1830价格被炒到天上,所以选择了性价比略高 但是小问题不少的DW1820a网卡(感谢黑果小兵~)--目前WIFI 蓝牙 双系统下都能正常使用。 多图预警\\ 版本信息 隔空投送 手机传到电脑上的图..... 在手机上浏览网页 电脑上显示,。点击 浏览器自动打开相同网页 显示器在注入HIDPI后,。可多选分辨率,显示还不错 基本实现白果所有功能, 略有小BUG 比如蓝牙容易受干扰,可以接受。 变频正常,。日常码字温度在32度左右..... 同情况windows超40度。 可能mac散热更激进,风扇转的快? 作为一名搬运工,能安装并正常使用macOS还是挺开心的。、 嘛时候没事了,写篇搬运文章... 来源: https://www.cnblogs.com/yangisme/p/11939237.html

vmware配置双网卡

怎甘沉沦 提交于 2019-11-28 16:30:52
最近在学习使用iptables做网关服务器,即 SNAT设置 我们的宿主机有两块网卡,地址分别是: 192.168.6.108/24 192.168.66.119/24 我们的目标是在虚拟机VMware上添加两块网卡,分别连接到这两各网卡上,然后通过iptables实现虚拟机的路由功能。 对虚拟机的设置应该这样 首先,选择 虚拟器编辑器 (这个应该是pro版本才会开启的功能,破解版或付费大家自己解决,笔者建议有条件的支持一下正版) 然后添加两个桥接网络,分别桥接到宿主机的两块网卡上: 然后保存就可以了。然后我们设置虚拟机分别使用这两个网卡。 然后虚拟机就桥接到宿主机的两块网卡上了。我们看一下: 来源: https://www.cnblogs.com/superxuezhazha/p/11415582.html

kvm虚拟化网络管理(4)

℡╲_俬逩灬. 提交于 2019-11-28 03:10:45
一、Linux Bridge网桥管理 网络虚拟化是虚拟化技术中最复杂的部分,也是非常重要的资源。 第一节中我们创建了一个名为br0的linux-bridge网桥,如果在此网桥上新建一台vm,如下图: VM2 的虚拟网卡 vnet1 也连接到了 br0 上。 现在 VM1 和 VM2 之间可以通信,同时 VM1 和 VM2 也都可以与外网通信。 查看网络状态: 用brctl show 显示当前网桥连接状态: brctl命令: 二、Vlan介绍 LAN 表示 Local Area Network,本地局域网,通常使用 Hub 和 Switch 来连接 LAN 中的计算机。一般来说,两台计算机连入同一个 Hub 或者 Switch 时,它们就在同一个 LAN 中。 一个 LAN 表示一个广播域。 其含义是:LAN 中的所有成员都会收到任意一个成员发出的广播包。 VLAN 表示 Virtual LAN。一个带有 VLAN 功能的switch 能够将自己的端口划分出多个 LAN。计算机发出的广播包可以被同一个 LAN 中其他计算机收到,但位于其他 LAN 的计算机则无法收到。 简单地说,VLAN 将一个交换机分成了多个交换机,限制了广播的范围,在二层将计算机隔离到不同的 VLAN 中。 比方说,有两组机器,Group A 和 B,我们想配置成 Group A 中的机器可以相互访问,Group

深入浅出多网卡绑定技术

旧城冷巷雨未停 提交于 2019-11-28 02:42:53
在存储 系统 中为了提高后端设备的吞吐量,往往需要采用多网卡绑定技术。例如,后端存储最大能够提供300MB/s的吞吐量,因此需要采用3块1Gps的网卡并发传输才可以达到峰值性能。那么,从研发的角度来看如何实现多网卡绑定呢?这里对提高吞吐量用途的多网卡绑定技术进行深入分析。 多网卡绑定一方面能够提高网络吞吐量,另一方面也可以增强网络高可用。这里对高可用应用的多网卡绑定技术不做讨论。从软件的角度来看,多网卡绑定实际上只需要提供一个额外的bond驱动程序即可,通过该虚拟网卡驱动程序可以将实际多块网卡屏蔽,对TCP/IP协议层而言只存在一个Bond网卡。在Bond驱动程序中实现网络流量的负载平衡(load balance),将一个网络请求重定位到不同的网卡(NIC)上,以此来提高总体网络的性能。多网卡绑定的软件层次架构如下图所示: www.2cto.com 考虑一下,为了绑定多块网卡,其技术难点在于什么地方?网络 交换机 是通过物理地址进行端口路由的,对于不支持IEEE802.3ab协议的普通交换机而言,其只能连接不同物理地址的网卡,否则交换机将会无法正常工作。每个网络适配器具备一个IP地址,而每个IP地址又通过ARP协议和一个MAC地址绑定在一起。由此分析,在没有交换机的配合下,我们很难实现想象中完美的多网卡绑定通信模型: 如果ARP协议能够支持将一个IP地址映射到多个MAC地址

neutron网络介绍

可紊 提交于 2019-11-27 03:17:25
neutron 介绍: Neutron 概述 传统的网络管理方式很大程度上依赖于管理员手工配置和维护各种网络硬件设备;而云环境下的网络已经变得非常复杂,特别是在多租户场景里,用户随时都可能需要创建、修改和删除网络,网络的连通性和隔离不已经太可能通过手工配置来保证了。 如何快速响应业务的需求对网络管理提出了更高的要求。传统的网络管理方式已经很难胜任这项工作,而“软件定义网络(software-defined networking, SDN)”所具有的灵活性和自动化优势使其成为云时代网络管理的主流。 Neutron 的设计目标是实现“网络即服务(Networking as a Service)”。为了达到这一目标,在设计上遵循了基于 SDN 实现网络虚拟化的原则,在实现上充分利用了 Linux 系统上的各种网络相关的技术。 SDN 模式服务— NeutronSDN( 软件定义网络 ), 通过使用它,网络管理员和云计算操作员可以通过程序来动态定义虚拟网络设备。Openstack 网络中的 SDN 组件就是 Quantum.但因为版权问题而改名为Neutron 。 Neutron网络基本概念 (1)neutwork network 是一个隔离的二层广播域。Neutron 支持多种类型的 network,包括 local, flat, VLAN, VxLAN 和 GRE。 local

记一次线上DPDK-LVS的故障排查

て烟熏妆下的殇ゞ 提交于 2019-11-26 02:57:45
背景 我们内部基于dpdk自研的高性能负载均衡器dpvs已经在多个机房部署上线,运行正常,但近期有多个金融相关的业务反馈,服务数据包在经过dpvs转发后,会出现hang住的情况。 问题 dpvs已经在多个机房上线,运行时间已超过半年,为何突然有业务反馈异常反馈问题的业务多与金融区相关(金融区由于其特殊性,会额外增加安全方面的加固策略)为什么问题表现均为服务hang住 问题排查 首先,我们怀疑与dpvs或与金融的某些安全策略相关,因此我们做了如下测试(后端上跑的均是相同的测试代码,并模拟了服务端逻辑): client < ----- > dpvs < ----- > rs(金融区) 不正常 client < ----- > dpvs < ----- > rs(非金融区) 正常 client < ----- > lvs < ----- > rs(金融区) 正常 client < ----- > lvs < ----- > rs(非金融区) 正常 通过1、2组测试能够得出结论:该问题与金融区相关且dpvs转发正常 通过3、4组测试能够得出结论:该问题与金融区无关且kernel版lvs转发正常 通过1、3组测试能够得出结论:该问题与dpvs有关,经过dpvs的请求不正常 通过2、4组测试能够得出结论:该问题与dpvs/lvs无关,经过dpvs/lvs的请求均正常 以上4组结论两两冲突