ovs

鲲鹏920上安装ovs

浪尽此生 提交于 2020-02-12 16:22:05
1、 安装依赖包 yum install -y python-six selinux-policy-devel gcc make python-devel openssl-devel kernel-devel graphviz kernel-debug-devel autoconf automake rpm-build redhat-rpm-config libtool 2、 wget https://www.openvswitch.org/releases/openvswitch-2.12.0.tar.gz 3、 cp openvswitch-2.12.0.tar.gz ~/rpmbuild/SOURCES/ 4、 rpmbuild -bb --without check openvswitch-2.12.0/rhel/openvswitch.spec 5、 yum install -y python-sphinx unbound-devel 6、 rpmbuild -bb --without check openvswitch-2.12.0/rhel/openvswitch.spec 7、 yum localinstall -y ~/rpmbuild/RPMS/aarch64/openvswitch-2.12.0-1.aarch64.rpm 8、 systemctl start

Open vSwitch的VxLAN隧道网络实验

∥☆過路亽.° 提交于 2020-02-06 00:36:04
实验参考 Open vSwitch的VxLAN隧道网络实验 实验步骤 1 预先配置 登录两台Mininet虚拟机或者是已安装OpenvSwitch的虚拟机。 查看两台虚拟机IP #ifconfig 验证OvS服务是否被启动好: # ps –ef|grep ovs OvS已启动 。 步骤1:分别在两台机器上创建网桥: #sudo ovs-vsctl add-br br0 #sudo ovs-vsctl add-br br1 步骤2:mn虚拟机上将eth0的IP赋给br1: #ifconfig eth0 0 up #ifconfig br1 30.0.1.13 up 给mn虚拟机的br1重新添加路由: #route add default gw 30.0.1.12 mn的路由如下显示: #sudo ovs-vsctl add-port br1 eth0 #ovs-vsctl show   步骤3:mn1虚拟机上将eth0的IP赋给br1: #ifconfig eth0 0 up #ifconfig br1 30.0.1.6 up 给mn1虚拟机的br1重新添加路由: #route add default gw 30.0.1.5    mn1虚拟机的路由显示如下: #ovs-vsctl add-port br1 eth0 #ovs-vsctl show 前期实验环境已准备好。 2

Open vSwitch的GRE隧道实验网络

牧云@^-^@ 提交于 2020-02-06 00:04:48
实验参考 Open vSwitch的GRE隧道实验网络 实验步骤: 1. 配置VM1 (1)Open vSwitch服务验证 验证虚拟机VM1的OvS服务是否被启动好: # ps -ef|grep ovs     2. 在VM1中创建两个bridge: # ovs-vsctl add-br br0 # ovs-vsctl add-br br1 3. 配置br0: # ifconfig eth0 0 up # ifconfig br0 20.0.2.12 netmask 255.255.255.248 # route add default gw 20.0.2.9 # ovs-vsctl add-port br0 eth0 (4)配置br1: # ifconfig br1 172.171.6.6/24 up (5)查看OVS配置 # ovs-vsctl show    (6)查看网络配置: 2.配置VM2 (1)验证OVS服务并配置OVS,同VM1 # ovs-vsctl add-br br0 # ovs-vsctl add-br br1 # ifconfig eth0 0 up # ifconfig br0 20.0.2.11 netmask 255.255.255.248(在实验参考中,这里笔误,应改为20.0.2.11) # route add default gw 20.0

Open vSwitch使用案例扩展实验

老子叫甜甜 提交于 2020-02-05 23:50:12
实验参考 Open vSwitch使用案例扩展实验 实验步骤 1. 实验任务一。 1.创建新文件ovsSingleBr.py并编辑以下内容: #!/usr/bin/python from mininet.net import Mininet from mininet.node import Node from mininet.link import Link from mininet.log import setLogLevel, info def myNet(): "Create network from scratch using Open vSwitch." info( "*** Creating nodes\n" ) switch0 = Node( 's0', inNamespace=False ) h0 = Node( 'h0' ) h1 = Node( 'h1' ) h2 = Node( 'h2' ) info( "*** Creating links\n" ) Link( h0, switch0) Link( h1, switch0) Link( h2, switch0) info( "*** Configuring hosts\n" ) h0.setIP( '192.168.123.1/24' ) h1.setIP( '192.168.123.2/24' ) h2

sdn组网过程

江枫思渺然 提交于 2020-02-05 15:42:37
创建交换机 root@mininet:~# ovs-vsctl add-br s1 root@mininet:~# ovs-vsctl add-br s2 添加端口 root@mininet:~# ovs-vsctl add-port s1 p1 #在交换机s1上添加port设置 root@mininet:~# ovs-vsctl set Interface p1 ofport_request=10 root@mininet:~# ovs-vsctl set Interface p1 type=internal 同理,创建交换机sl上的端口p2,s2上的端口p3、p4 root@mininet:~# ovs-vsctl add-port s1 p2 root@mininet:~# ovs-vsctl set Interface p2 ofport_request=11 root@mininet:~# ovs-vsctl set Interface p2 type=internal root@mininet:~# ovs-vsctl add-port s2 p3 root@mininet:~# ovs-vsctl set Interface p3 ofport_request=1 root@mininet:~# ovs-vsctl set Interface p3 type

Tungsten Fabric如何支撑大规模云平台丨TF Meetup演讲实录

痴心易碎 提交于 2020-01-17 17:38:17
点击 下载 文档,查看本文所有相关资料。 https://163.53.94.133/assets/uploads/files/large-scale-cloud-yy.pdf 今天的分享偏技术一些,首先我们来看SDN的本质,然后从Tungsten Fabric(以下简称TF)架构上解析为什么比OVS更好,为什么能支撑更大的场景。 先来看云对网络的要求。首先是租户隔离,IaaS就是多租户,对于地址重用的要求,以VLAN的传统方式也是可以实现的。另外,传统VXLAN的协议或OVS的协议,只提供二层隔离的能力,没有三层隔离的能力,只要你的机器绑到外网IP,或者绑到公共的路由层面上,三层是可以互通的,所以说在租户隔离的层面,也有三层隔离的需求。 其次,云需要网络支持虚拟机跨机柜的迁移。VXLAN的话还要跨数据中心大二层,不是说不可以实现,但除了网络要求,还有存储的要求,比较难。虚拟机跨机柜的迁移,最难的是什么?传统网络架构,就是接入-汇聚-核心,路由器以下都是二层架构,机器可以在不同机架上迁移,但一个数据中心,云足够大的时候,二层基础网络是支撑不了整个云的,不同机架在不同三层里面,这时虚拟机做迁移就要要求IP地址不能变。 另外,还有网络功能和服务的要求。在云上面都是共享的资源池,如果以负载均衡为例,将一个性能强大的硬件负载均衡虚拟化给多个租户使用

2019 SDN上机第2次作业

旧街凉风 提交于 2020-01-13 12:51:47
1. 利用mininet创建如下拓扑,要求拓扑支持OpenFlow 1.3协议,主机名、交换机名以及端口对应正确,请给出拓扑Mininet执行结果,展示端口连接情况 2. 直接在Open vSwitch下发流表,用vlan得到下列虚拟网段,请逐条说明所下发的流表含义 sudo ovs-ofctl -O OpenFlow13 add-flow s1 priority=1,in_port=1,actions=push_vlan:0x8100,set_field:4096-\>vlan_vid,output:4 //转发S1端口1的包到端口4,并打上vlan_tag sudo ovs-ofctl -O OpenFlow13 add-flow s1 priority=1,in_port=2,actions=push_vlan:0x8100,set_field:4097-\>vlan_vid,output:4 //转发S1端口2的包到端口4,并打上vlan_tag sudo ovs-ofctl -O OpenFlow13 add-flow s1 priority=1,in_port=3,actions=push_vlan:0x8100,set_field:4098-\>vlan_vid,output:4 //转发S1端口3的包到端口4,并打上vlan_tag sudo ovs-ofctl

2019 SDN上机第2次作业

流过昼夜 提交于 2020-01-12 15:17:06
1.利用mininet创建如下拓扑,要求拓扑支持OpenFlow 1.3协议,主机名、交换机名以及端口对应正确,请给出拓扑Mininet执行结果,展示端口连接情况 创建fattree2.py文档,并编写py代码,代码如下: from mininet.topo import Topo from mininet.net import Mininet from mininet.node import RemoteController,CPULimitedHost from mininet.link import TCLink from mininet.util import dumpNodeConnections class Mytopo(Topo): def __init__(self): Topo.__init__(self) s=[] for i in range(2): sw = self.addSwitch('s{}'.format(i+1)) s.append(sw) count=1 for sw in s[0:2]: for i in range(3): host = self.addHost('h{}'.format(count)) self.addLink(sw,host) count += 1 self.addLink(s[0],s[1]) topos = {

Neutron 理解 (2): 使用 Open vSwitch + VLAN 组网 [Netruon Open vSwitch + VLAN Virutal Network]

独自空忆成欢 提交于 2020-01-10 20:11:48
转自 http://www.cnblogs.com/sammyliu/p/4626419.html#3552510 学习 Neutron 系列文章: (1) Neutron 所实现的虚拟化网络 (2) Neutron OpenvSwitch + VLAN 虚拟网络 (3) Neutron OpenvSwitch + GRE/VxLAN 虚拟网络 (4) Neutron OVS OpenFlow 流表 和 L2 Population (5) Neutron DHCP Agent (6) Neutron L3 Agent (7) Neutron LBaas (8) Neutron Security Group (9) Neutron FWaas 和 Nova Security Group (10) Neutron VPNaas (11) Neutron DVR (12) Neutron VRRP (13) High Availability (HA) 1. L2 基础知识 1.1 VLAN 基础知识 1.1.1 VLAN 的含义 LAN 表示 Local Area Network,本地局域网,通常使用 Hub 和 Switch 来连接LAN 中的计算机。一般来说,当你将两台计算机连入同一个 Hub 或者 Switch 时,它们就在同一个 LAN 中。同样地,你连接两个 Switch

2019 SDN大作业

天涯浪子 提交于 2020-01-07 19:01:26
2019 SDN大作业--数据中心类型网络拓扑的搭建与连接 贡献比例 分组报告贡献比例 学号 分工 比例 031702345 提供资料,答辩 22% 031702311 查找资料,ppt制作 21% 031702428 提供资料 18% 031702309 查找资料,ppt制作 21% 131700101 提供资料 18% 分组实验贡献比例 学号 分工 比例 031702345 代码实现,博客 28% 031702311 思路设计,场景搭建 18% 031702428 代码实现 18% 031702309 思路设计,场景搭建 18% 131700101 思路设计,视频 18% 实验概述 使用两个互为备份的中心交换机 连接两两互为备份的共计四个交换机 下接四组各连有两台主机的交换机 作为数据中心类型网络拓扑的一个小型实现 上、中、下层均可以扩展来实现对更多网络主机的支持 实现在网络中心区域防止单个设备故障所引发的网络中断 实验拓扑 实验拓扑图如下 由miniedit绘制 由NSP绘制 建立实验网络 建立流程如下 1.先打开OpenDayLigtht作为remote控制器,否则先运行mininet则不能连接到控制器 2.运行mininet建立拓扑结构,运行代码如 sudo mn --custom datacenter.py --topo mytopo --controller