openvswitch

Openstack计算主机安装配置流程二

折月煮酒 提交于 2020-04-07 16:39:26
Openstack计算主机安装配置流程 1.环境配置 Hosts配置   修改/etc/hosts文件,增加wtcontroller、wtcompute1、wtcompute2: 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 172.16.10.100 wtcontroller 172.16.10.101 wtcompute1 172.16.10.102 wtcompute2   修改本机hostname(以计算主机wtcompute1为例) echo "wtcompute1"> /etc/hostname 1.1修订yum源 本示例使用的时163的yum源: CentOS7-Base-163.repo 将以上文件拷贝至/etc/yum.repos.d目录下 备份该目录下CentOS-Base.repo文件 修改CentOS7-Base-163.repo为CentOS-Base.repo 执行以下命令: yum clean all #清除缓存 yum makecache #生成缓存 yum list #显示所有已经安装和可以安装的程序包

Openstack部署流程说明一

痴心易碎 提交于 2020-04-05 23:30:14
Openstack部署流程说明一 1.环境说明 1.1硬件环境   本文档为针对一套1个控制节点、2个计算节点组成的openstack示例进行说明,其中物理主机组成如下:   1台32核cpu\32G内存\8网卡高性能服务器用作控制主机,部署控制节点服务、网络节点服务、镜像节点服务;   1台32核cpu\32G内存\8网卡高性能服务器用作计算主机,部署计算节点服务、网络代理;   1台4核\4G内存\2网卡服务器用作计算主机,部署计算节点服务、网络代理; 1.1软件环境 CentOS 7.6-1810 x86_64 CentOS 7.7-1908 x86_64 1.2网络类型   网络分为linuxbridge和openvswitch,默认采用openvswitch类型 1.2网络规划 A.控制主机: 主机名称:wtcontroller 网卡1:172.16.10.0/24, 172.16.10.100 网卡2:172.16.20.0/24, 172.16.20.80 网卡3:192.168.3.198 (用于上外网) B.计算主机1: 主机名称:wtcompute1 网卡1:172.16.10.0/24, 172.16.10.101 网卡2:172.16.20.0/24, 172.16.20.81 网卡3:安装临时用192.168.3.197 C.计算主机2: 主机名称

CentOS6.5下安装Open vSwitch

穿精又带淫゛_ 提交于 2020-03-31 07:17:22
准备 # yum install openssl-devel redhat -rpm- config kernel- devel -y # yum install kvm libvirt python- virtinst qemu-kvm virt -viewer 编译 # wget http://openvswitch.org/releases/openvswitch-1.9.3.tar.gz # tar - zxf openvswitch-1.9.3.tar.gz # cd openvswitch-1.9.3 # cp .. /openvswitch-1.9.3.tar.gz ~/ rpmbuild /SOURCES/ # cp rhel / openvswitch-kmod.files ~/ rpmbuild /SOURCES/ # cp rhel / openvswitch.spec ~/ rpmbuild /SPECS/ # rpmbuild - ba ~/ rpmbuild /SPECS/ openvswitch.spec # cp rhel /openvswitch-kmod-rhel6.spec ~/ rpmbuild /SPECS/ # ls ~/ rpmbuild /RPMS/x86_64/ | grep open kmod -openvswitch-1.9.3

openvswitch常用操作

霸气de小男生 提交于 2020-03-31 07:15:50
原理讲解:   当我们创建一个交换机(网桥)之后即(ovs-vsctl add-br brname),此时网络功能不受影响,但是 会产生一个虚拟网卡,名字为brname(与网桥名字同名,可以使用  ifconfig brname查看),之所以会产生一个虚拟网卡 ,是为了实现接下来的网桥(交换机)功能,有了这个交换机以后,还需要为这个交换机增加端口(port), 一个  端口就相当于一个物理网卡 ,当网卡加入到这个交换机之后,其工作方式就和普通交换机的一个端口的工作方式类似了;   再执行(ovs-vsctl add-port brname port)之后,即网卡加入网桥之后,按照网桥的工作标准工作,则加入的端口(网卡)必须以混杂模式工作,工作在链路层,处理2  层的帧,所以这个port就不需要配置IP的(应该没有见过哪个交换机的端口有IP的吧)   那么接下来你可能会问,通常的交换机不都是有一个管理接口,通过telnet到交换机上进行配置的,那么在OVS中创建的虚拟机有没有该接口呢,有的!上面提到创建交换机brname的时候产生了一个虚拟网口brname,那么,给这个虚拟网卡配置了ip之后,就相当于给交换机的管理接口配置了IP,对此一个正常的虚拟交换机就搞定了!!   除此之外,与网桥同名的网卡(端口)起到了桥的功能; 二、工作场景   ovs主要是用来虚拟化环境中

Open VSwitch简介

半腔热情 提交于 2020-03-28 20:13:07
OVS简介   OpenvSwitch ,简称 OVS 是一个虚拟交换软件,主要用于虚拟机 VM 环境,作为一个虚拟交换机,支持 Xen/XenServer, KVM, and VirtualBox 多种虚拟化技术。虽然是虚拟交换机,但是其工作原理与物理交换机类似。在虚拟交换机的实现中,其两端分别连接着物理网卡和多块虚拟网卡,同时虚拟交换机内部会维护一张映射表,根据 MAC 地址寻找对应的虚拟机链路进而完成数据转发。   OpenvSwitch 是实现虚拟化网络的重要基础组件,在 OpenStack 中利用 OpenvSwitch 作为底层部件来完成虚拟网络提供和租户网络管理。 OpenvSwitch 可以实现访问控制功能,通过转发规则,可以实现简单的安全行为,包括通过、禁止等。 OVS组件 ovsdb-sever: OVS 的数据库服务器,用来存储虚拟交换机的配置信息。它于 manager 和 ovs-vswitchd 交换信息使用了 OVSDB(JSON-RPC) 的方式。 ovs-vswitchd: OVS 的核心部件,实现 switch 的 daemon ,包括一个支持流交换的 Linux 内核模块;和上层 controller 通信遵从 OPENFLOW 协议,与 ovsdb-server 通信使用 OVSDB 协议,和内核模块通过 netlink 通信,支持多个独立的

OVN简介

点点圈 提交于 2020-03-12 16:36:47
三、OVN入门 3.1 OVN简介 Open vSwitch(OVS)是一款开源的“虚拟交换机”,控制协议方面它不但支持OpenFlow的所有特性而且扩展了部分OpenFlow的功能;Overlay协议方面它支持GRE, VXLAN, STT, Geneve四种主流Overlay数据包。OVS已经是 数据平面 的事实标准了,很多白盒交换机都兼容它提供的接口;还有一些x86架构的交换机则直接是基于OVS和DPDK的。所以无论“上层”的ODL、ONOS、Neutron如何的翻天覆地的“闹腾”而OVS还是岿然不动(最后流表的执行者还是OVS)。 但是长期一来OVS都缺乏一个统一的网络模型(Neutron虽然花费巨大力气实现一个网络模型但是仅仅适用于OpenStack而无法用于容器更加无法单独使用),于是在2015年OVS社区宣布了一个子项目——Open Virtual Network(OVN)。它旨在为OVS提供一个控制平面,通过一个统一的网络模型为容器、虚拟机提供相同的网络服务。 虽然很多人不愿意承认但是事实上它瞄准的对象是三个——ODL、ONOS、Neutron。我们可以看一下OpenStack中networking-ovn子项目,它是基于OVN实现的“Neutron”旨在替换Neutron的L2、L3功能。对比传统的Neutron的L2、L3的实现代码它的代码量非常少

Neutron 理解 (4): Neutron OVS OpenFlow 流表 和 L2 Population [Netruon OVS OpenFlow tables + L2 Population]

余生长醉 提交于 2020-03-07 17:35:32
OVS bridge 有两种模式:“normal” 和 “flow”。“normal” 模式的 bridge 同普通的 Linux 桥,而 “flow” 模式的 bridge 是根据其流表(flow tables) 来进行转发的。Neutron 使用两种 OVS bridge:br-int 和 br-tun。其中,br-int 是一个 “normal” 模式的虚拟网桥,而 br-tun 是 “flow” 模式的,它比 br-int 复杂得多。 1. 基础知识 1.1 OpenFlow 结构、流表和数据包处理 下面左图是 Open vSwitch 中流表的结构。右图这个流程图详细描述了数据包流通过一个 OpenFlow 交换机的过程。 更详细的描述请参见 这里 。 1.2 ARP Proxy Proxy ARP 就是通过一个主机(通常是Router)来作为指定的设备对另一个设备作出 ARP 的请求进行应答。 举个例子:主机A,IP地址是192.168.0.11/24;主机B,IP地址是192.168.1.22/24。主机A和主机B通过路由器R相连接,并且路由器R启用了Proxy ARP,并配置有路由。网络拓扑如下: eth0 eth0 eth1 eth0 A------------------------Router R----------------------B 192.168

【docker+openvswitch系列三】ovs-docker配置网络

给你一囗甜甜゛ 提交于 2020-02-28 22:15:39
ovs-docker配置网络 docker和openvswitch的环境搭建教程参考: 【docker+openvswitch系列一】在ubuntu下搭建docker环境 【docker+openvswitch系列二】在ubuntu下搭建openvswitch环境 本文参考:https://www.cnblogs.com/whych/p/9601889.html 首先搬来了实验结构图: 正题: 一、辅助工作: 1. 安装openvswitch项目提供的支持Docker容器的辅助脚本ovs-docker: wget https://github.com/openvswitch/ovs/raw/master/utilities/ovs-docker chmod a+x ovs-docker ps:该链接时好时坏,作者没有找到更好的下载方法,如果不成功多试几次 2. 安装Docker的辅助镜像,方便在容器里面使用linux命令: service docker start 开启docker服务 docker pull busybox:latest 下载busybox镜像 准备工作做好了我们开始正式搭建网络,嘿嘿嘿 二、正式开始 1. 搭建网桥和docker容器: ovs-vsctl add-br br0 ovs-vsctl add-br br1 ovs-vsctl show

openvswitch 使用记录(一)

馋奶兔 提交于 2020-02-22 16:27:49
openvswitch-2.12.0 基于loongson平台的编译安装 下载源码路径为: http://www.openvswitch.org/download/ tar xvf ../../ext_tools/openvswitch-2.12.0.tar.gz -C ./ cd openvswitch-2.12.0/ 1、./boot.sh 2、./configure --with-linux=/lib/modules/3.10.0irqfd+/build/ 或者 ./configure --with-linux=/lib/modules/`uname -r`/build 或者 ./configue 3、make -j4 make install make modules_install modprobe openvswitch //加载openvswitch内核模块 启动脚本内容 #!/bin/bash echo "start" export PATH=$PATH:/usr/local/share/openvswitch/scripts ovs-ctl start echo "start ovsdb-serveryy" ovs-ctl --no-ovs-vswitchd start echo "start ovs-vswichd server" ovs-ctl --no

云上战“疫”背后:快杰云主机的技术担当

风格不统一 提交于 2020-02-21 10:17:29
新冠肺炎催生了办公、医疗、教育等行业的“线上解决”,加速了各行业与“云”的结合,也对不少服务企业提出了新的考验:持续攀登的高并发、多连接,需要更加高性能稳定的云平台支撑,确保不宕机、不卡断以及流畅稳定的云上体验。 在这场战“疫”中,UCloud快杰云主机历经了多项考验,在计算、网络、存储各方面均具备优异性能。其中,为了响应“停课不停学”的号召,快杰云主机为小禾科技线上教育直播平台提供了高性能稳定的云资源支持,同时UCloud还免费提供直播带宽和流量等资源,保障高并发场景下直播平台及课程的顺利进行。 快杰云主机的优异表现依托于产品的技术优化,来看一组快杰云主机的配置参数: 搭载Intel最新Cascade Lake CPU、NVMe SSD硬盘、25G RDMA网络,并通过最新的智能网卡提供硬件卸载。 在这其中,每一项参数优化均经历了诸多思路重建、革旧换新的技术更迭。 下面我们就来聊聊快杰云主机的“破局”之路。 一、存储“破局” 快杰云主机搭载的NVMe SSD硬盘,采用64层3DNAND,支持8TB/s高速TRIM。支持性能出色的同时,NVMe SSD硬盘通过动态精确能耗控制,能源效率也比前代提升38%。 国内专业云资源选型服务平台 CloudBest 实验室的报告中( 阿里云、腾讯云、UCloud 、华为云云主机对比测试报告 ),关于 “磁盘性能” 的测试结果如下: 图