LoopBack

【思科***】BGP MPLS-***基本部署实例

断了今生、忘了曾经 提交于 2020-07-26 07:51:24
实验拓扑: 实验需求:如图,R1,R2,R3为公网路由器,属于AS65001。R4,R6为A公司的总公司和子公司出口路由器,R5,R7为B公司的总公司和子公司的出口路由器。运营商为R4,R5连接R1的网段均部署为私网网段172.16.40.0/24 ,为R6,R7连接R3的网段部署为172.16.60.0/24和172.16.70.0/24 。 要求使A公司的总公司(40.1)能与子公司出口路由器的内网网段(60.1)通信,B公司的总公司(40.1)能与子公司出口路由器的内网网段(70.1)通信。 实验步骤: 首先进行基本配置。(R1,R3的下行口一会再配) R1: f0/0:12.0.0.1/24 l0:1.1.1.1/32 R2: f0/0:12.0.0.2/24 f0/1:23.0.0.2/24 l0:2.2.2.2/32 R3 f0/0:23.0.0.3/24 l0:3.3.3.3/32 R4 f0/0:172.16.40.2/24 l0:192.168.40.1/24 R5 f0/0:172.16.40.2/24 l0:192.168.40.1/24 R6 f0/0:172.16.60.2/24 l0:192.168.60.1/24 R7 f0/0:172.16.70.2/24 l0:192.168.70.1/24 首先在R1,R2,R3上运行ospf协议。 R1

华为-命令行基础(一)

房东的猫 提交于 2020-07-24 20:06:46
====================命令行基础===================== 设置时钟: <AR1>clock timezone BJ add 08:00:00 <AR1>clock datetime 17:36 2016-10-22 <AR1>display clock 2016-10-22 17:36:20 Saturday Time Zone(8) : UTC+08:00 <AR1>clock timezone BJ add 08:00:00 <AR1>display clock 2016-10-22 17:37:04 Saturday Time Zone(BJ) : UTC+08:00 配置标题消息: header login 配置在用户登录前显示的标题消息 header shell 配置在用户登录后显示的标题消息 [AR1]header login information "welcome to huawei certification!" [AR1]header shell information "Please don't reboot the device!" 简单设置console密码: [AR1]user-interface console 0 [AR1-ui-console0]authentication-mode password

How to call Loopback4 controller's method from another controller

£可爱£侵袭症+ 提交于 2020-06-17 16:45:27
问题 I have a loopback 4 controller with a function that I don't want to expose via HTTP. I would like to be able to call the function from another controller. How can I do this? Is there any way of injecting a controller in another controller? (I 'm able to inject repositories in controllers, but not controllers in other controllers). 回答1: You have to first import repository of another controller e.g. import { MemberRepository, EmailTemplateRepository } from '../repositories'; then you have to

CentOS 7 修改国内yum源

ぃ、小莉子 提交于 2020-05-08 03:56:35
0.开启网络连接 对于新装的CentOS,默认是没有开启网络连接的,所以你看不到IP地址。 // 查看有线网设备 ip address 1 2 3 可以看到两个设备: 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue 2: enp1s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 那么,有线网就是叫enp1s0啦,(虚拟机一般为 ens33 ) // 打开有线网配置 vi /etc/sysconfig/network-scripts/ifcfg-enp1s0 // 最后一行,修改为YES ONBOOT=YES // 重启网络服务 systemctl restart network.service 1.更换yum官方源 # 下载wget工具 yum install -y wget # 进入yum源配置文件所在文件夹 cd /etc/yum.repos.d/ # 备份本地yum源 mv CentOS-Base.repo CentOS-Base.repo_bak # 获取国内yum源(阿里、163二选一) wget -O CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo # wget -O CentOS-Base

RHEL8网络配置

為{幸葍}努か 提交于 2020-05-07 02:00:57
在RHEL8中继续支持service,网络相关服务管理已经转移到NetworkManager不再是network了,本文档详细介绍RHEL8网络配置。 环境 Red Hat Enterprise Linux release 8.0 VMware Workstation Pro 14 在RHEL8中继续支持service 网络相关服务管理已经转移到NetworkManager不再是network了 修改网卡配置文件,重启NetwrokManager服务新IP不生效! [root@localhost ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33 TYPE=Ethernet PROXY_METHOD=none BROWSER_ONLY=no BOOTPROTO=static DEFROUTE=yes IPV4_FAILURE_FATAL=no IPV6INIT=yes IPV6_AUTOCONF=yes IPV6_DEFROUTE=yes IPV6_FAILURE_FATAL=no IPV6_ADDR_GEN_MODE=stable-privacy NAME=ens33 UUID=eb51f723-244d-4a71-bf8d-c18593c64859 DEVICE=ens33 ONBOOT=yes IPADDR=192.168

RHEL8网络配置

我怕爱的太早我们不能终老 提交于 2020-05-05 16:46:00
在RHEL8中继续支持service,网络相关服务管理已经转移到NetworkManager不再是network了,本文档详细介绍RHEL8网络配置。 环境 Red Hat Enterprise Linux release 8.0 VMware Workstation Pro 14 在RHEL8中继续支持service 网络相关服务管理已经转移到NetworkManager不再是network了 修改网卡配置文件,重启NetwrokManager服务新IP不生效! [root@localhost ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33 TYPE=Ethernet PROXY_METHOD=none BROWSER_ONLY=no BOOTPROTO=static DEFROUTE=yes IPV4_FAILURE_FATAL=no IPV6INIT=yes IPV6_AUTOCONF=yes IPV6_DEFROUTE=yes IPV6_FAILURE_FATAL=no IPV6_ADDR_GEN_MODE=stable-privacy NAME=ens33 UUID=eb51f723-244d-4a71-bf8d-c18593c64859 DEVICE=ens33 ONBOOT=yes IPADDR=192.168

Linux服务器更换主板后,网卡识别失败的处理方法

浪尽此生 提交于 2020-05-05 13:39:59
1)现象说明 公司IDC机房里的一台线上服务器硬件报警,最后排查发现服务器主板坏了,随即联系厂商进行更换主板,最后更换后,登录服务器,发现网卡绑定及ip信息都在,但是ip却ping不通了,进一步排查,重启网卡, 提示之前的eth0和eth1网卡设备发现不了了,也就是说服务器主板更换后,之前的网卡设备都识别不了了 ! 主板更换后,重启并登陆服务器,发现之前的网卡设备(eth0、eth1、eth2、eth3)都没有了! [root@kevin01 ~]# ifconfig -a bond0 Link encap:Ethernet HWaddr 08:94:EF:5E:AE:72 inet addr:192.168.10.20 Bcast:192.168.10.255 Mask:255.255.255.0 inet6 addr: fe80::a94:efff:fe5e:ae72/64 Scope:Link UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 RX packets:75582 errors:0 dropped:0 overruns:0 frame:0 TX packets:58537 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0

centos8平台用NetworkManager/nmcli管理网络

∥☆過路亽.° 提交于 2020-05-04 23:43:13
一,centos8上,网络服务的管理需要NetworkManager服务 1,NetworkManager的服务操作 启动 [root@localhost network-scripts]# systemctl start NetworkManager 停止 [root@localhost network-scripts]# systemctl stop NetworkManager 查看状态 [root@localhost network-scripts]# systemctl status NetworkManager 2,NetworkManager和nmcli所属的包: [root@localhost network-scripts]# whereis nmcli nmcli: /usr/bin/nmcli /usr/share/ man /man1/nmcli. 1 .gz [root@localhost network -scripts]# rpm -qf /usr/bin/ nmcli NetworkManager - 1.20 . 0 - 5 .el8_1.x86_64 centos8系统默认已安装了这个rpm包,无需手动安装, 如果误删除了可以用yum命令安装 [root@localhost yum .repos.d]# yum install

docker overlay网络实现

我们两清 提交于 2020-05-01 09:52:21
DOCKER的内置OVERLAY网络 内置跨主机的网络通信一直是Docker备受期待的功能,在1.9版本之前,社区中就已经有许多第三方的工具或方法尝试解决这个问题,例如Macvlan、Pipework、Flannel、Weave等。 虽然这些方案在实现细节上存在很多差异,但其思路无非分为两种: 二层VLAN网络和Overlay网络 简单来说,二层VLAN网络解决跨主机通信的思路是把原先的网络架构改造为互通的大二层网络,通过特定网络设备直接路由,实现容器点到点的之间通信。这种方案在传输效率上比Overlay网络占优,然而它也存在一些固有的问题。 这种方法需要二层网络设备支持,通用性和灵活性不如后者。 由于通常交换机可用的VLAN数量都在4000个左右,这会对容器集群规模造成限制,远远不能满足公有云或大型私有云的部署需求; 大型数据中心部署VLAN,会导致任何一个VLAN的广播数据会在整个数据中心内泛滥,大量消耗网络带宽,带来维护的困难。 相比之下, Overlay网络是指在不改变现有网络基础设施的前提下,通过某种约定通信协议,把二层报文封装在IP报文之上的新的数据格式。这样不但能够充分利用成熟的IP路由协议进程数据分发;而且在Overlay技术中采用扩展的隔离标识位数,能够突破VLAN的4000数量限制支持高达16M的用户,并在必要时可将广播流量转化为组播流量,避免广播数据泛滥。

Ubuntu18.04 配置网卡、替换软件源

无人久伴 提交于 2020-05-01 04:42:43
2019/10/29, Ubuntu Server 18.04 摘要:Ubuntu Server 18.04 采用netplan作为网络配置管理,修改IP使其连上网络,修改替换软件源 ##修改网卡配置 首先使用 ip a 查看当前网卡名称: 可以看到eth0就是我们的网卡名称,这个要记住,后面配置网卡要用到 还有个叫lo的配置,是环回接口loopback 进入网卡配置目录 cd /etc/netplan/ 查看目录下文件,有个yaml后缀名的文件就是当前网络配置文件,我这里叫 50-cloud-init.yaml : vi 打开该文件进行编辑: sudo vi 50-cloud-init.yaml 下面介绍两种网卡配置,一种是使用DHCP自动分配IP,一种是使用静态固定IP ###自动分配IP 在ethernets节点下,添加eth0(前面使用ip a看到的网卡名称),子节点dhcp4: true即可: network: ethernets: eth0: dhcp4: true version: 2 注意dhcp4的冒号后面有个空格!!! 保存退出后,使用netplan命令应用设置: sudo netplan apply 重新查看IP,发现配置已生效: ###静态固定IP 在ethernets节点下,配置如下: network: ethernets: eth0: dhcp4: no