网卡

windows 2003 server系统上利用2块网卡做一个软路由

那年仲夏 提交于 2020-03-18 16:01:44
某厂面试归来,发现自己落伍了!>>>   1、在欲设置为软路由的计算机中正确安装两块网卡。一块接交换机,另一个接电信的adsl猫。   2、在欲设置为软路由的计算机中安装TCP/IP协议,并为两块网卡分别配置IP地址信息(接交换机的设置192.168.1.1/255.255.255.0,另一接猫的设置自动获取) 。    软路由的安装   以域用户管理员的身份登录,并执行下述操作。   1、依次单击“开始/程序/管理工具/路由和远程访问”,打开“路由和远程访问”窗口。   2、单击“操作”菜单,选择“配置并启用路由和远程访问”命令,运行“路由和远程访问服务器安装向导”,单击[下一步]。   3、由于我们在这里要安装的是路由器,所以,选择“网络路由器”选项,并单击[下一步]。   4、通常情况下,局域网计算机中只安装TCP/IP协议和NetBEUI协议,而且只有TCP/IP协议拥有路由功能。AppleTalk协议仅用于苹果计算机之间的通讯。由于TCP/IP协议已经显示于“协议”列表之中,因此,选择“是,所有可用的协议都在列表上”选项,并单击[下一步]。   5、本例中不安装远程访问服务,因此,选择“否”,不使用请求拨号访问远程网络。单击[下一步]。   6、完成“路由和远程访问服务器安装向导”,单击[完成]。    软路由的设置   1、依次单击“开始/程序/管理工具/路由和远程访问

linux 系统中安装网卡驱动及配置IP

笑着哭i 提交于 2019-12-30 18:01:44
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 一:驱动网卡 首先得找到相应的网卡的驱动,拷贝到U盘中 把U盘插到服务器USB接口中,然后进入linux控制台: # mkdir /mnt/usb //建立 usb 驱动盘符 # mount /dev/sdb /mnt/usb //挂载U盘到我们建立的驱动盘符中, 这里sdb有可能是其它 sdb1 # cd /mnt/usb //进入到U盘的盘符目录,并找到驱动包 # cp 123.tar.gz /root //如驱动包为123.tar.gz,我们复制驱动包到 家目录下 # cd /root //进入家目录 # tar xvfz 123.tar.gz //解压驱动包 # cd 123 //进入到解压的驱动目录下,找到安装的驱动程序,一般情况下有install的执行脚本 安装,或者查看README 文件(cat README) 看安装步骤,例如下面: # make install # modprobe e1000e OK ,安装完毕,仅做参考,大概知道怎么怎么来的就OK了, 可以输入 命令 # ifconfig -a 查看网卡信息,如出现 eth0 或eth1 表示安装成功。接下我们配置网络的IP 地址 二:linux 下配置IP 地址 进入linux 控制台,先必须找到网卡文件存在的路径,然后我吗再进行编辑 #

ubuntu12.04 安装tplink-wn725n无线网卡驱动

两盒软妹~` 提交于 2019-12-10 01:47:05
ps:官网下载的代码竟然无法编译通过,郁闷,遂在网上找到下面的方法。不过好消息是ubuntu14.04这个网卡是免驱的 1 更新一些头文件(不过我觉得这一步是可有可无的) sudo apt-get update sudo apt-cache search linux-headers-$(uname -r) sudo apt-get install linux-headers-$(uname -r) 2 下载TL-WN725N 2.0的驱动,编译安装 git clone https://github.com/lwfinger/rtl8188eu cd rtl8188eu make sudo make install 来源: oschina 链接: https://my.oschina.net/u/1174481/blog/374704

CentOS6.X开机自动激活网卡(eth0)

ぐ巨炮叔叔 提交于 2019-12-06 15:22:18
一、问题描述 CentOS6.X每次重新启动后,发现网卡是没有激活的,这样很麻烦,导致每次都需要手动激活网卡。通过设置网卡信息,让CentOS6.X开机自动激活网卡(eth0) 二、解决方法 1. 以root用户登录linux 2. 编辑vi /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE=eth0 HWADDR=00:0C:29:BB:76:E2 TYPE=Ethernet UUID=f6f03f90-c5ce-4194-9aa1-0e613e5872c7 ONBOOT=no NM_CONTROLLED=yes BOOTPROTO=dhcp 我们需要将ONBOOT=no修改为ONBOOT=yes 修改完网卡信息后必须重启网络服务service network restart 3. ok,重启系统,我们发现网卡eth0已经自动激活了,问题解决。 来源: oschina 链接: https://my.oschina.net/u/2290965/blog/775328

CentOS6.3 minimal EFI的网卡问题

爱⌒轻易说出口 提交于 2019-12-02 02:22:01
这几天用CentOS-6.3-x86_64-minimal-EFI.iso的镜像安装了虚拟机,发现启动起来时竟然找不到网卡……问题已经解决,这里记录一下,也方便我以后查阅。 虚拟机的网络配置选项如图所示: 从图中可以看到,这里是选择接入网线的。 登录到刚才安装的虚拟机系统(CentOS-6.3-x86_64-minimal-EFI),执行ifconfig命令,输出结果如下图: 这里只有一个lo网卡,而没有eth0之类的,这是因为默认情况下网卡是不启动的。 解决办法: 1、备份网卡配置 cd /etc/sysconfig/network-scripts/ cp ifcfg-eth0{,.bak} 2、更改网卡配置 默认网卡配置如下: 默认是不开机启动的,只需要把这里的no改为yes,即: ONBOOT="yes" 这里以最简单的情况举例,网卡配置文件有很多选项。比如: DEVICE=eth0 #接口名(设备,网卡) BOOTPROTO= static #IP的配置方法(static:固定IP, dhcpHCP, none:手动) HWADDR=08:00:27:A6:21:8F #MAC地址 ONBOOT=yes # 系统启动的时候网络接口是否有效(yes/no) IPADDR=192.168.1.2 #IP地址 NETMASK=255.255.255.0 #子网掩码 GATEWAY

克隆CentOS 6后网卡无法自动识别的解决方法

≡放荡痞女 提交于 2019-11-29 05:38:46
最近在虚拟机上安装了CentOS 6.2。为了以后使用方便, 对虚拟机进行克隆。当使用克隆后的虚拟机时,发现原来在操作系统中的网卡eth0到了新系统却没有了,使用 ifconfig -a会发现只有eth1。因为源系统很多网络配置都是基于eth0的,eth1没有网络相关的配置。如果每次对虚拟机进行克隆后都要修改网卡配置,显示是非常不方便的。 而且还发现一个规律,基于此克隆虚拟机继续克隆新的虚拟机,网卡的标识会自动加1(即第二次克隆后会变成eth2)。但使用dmesg命令却显示内核只识别到网卡eth0。 原来很多Linux distribution使用udev来动态管理设备文件,并根据设备的信息对其进行持久化命名。例如在Debian eth中,udev会在系统引导的过程中识别网卡,将mac地址和网卡名称对应起来,并记录在udev的规则脚本中。而VMware会自动生成虚拟机的 mac地址。这样,源系统已经记录了该虚拟机的网卡mac地址对应于网卡eth0,当克隆出的新的虚拟机后,由于mac地址发生改变,udev会自动将该mac对应于网卡eth1,以此类推。udev会记录所有已经识别的mac与网卡名的关系,并且每次克隆网卡名称会自动加1,但实际上kernel 仅仅只识别到一张网卡。 udev通常会将mac与网卡名称的对应关系保存在形如 /etc/udev/rules.d / 70

【原创】centos自带网卡驱动不兼容硬件,造成hadoop的datanode节点频繁宕机的解...

左心房为你撑大大i 提交于 2019-11-27 13:07:11
操作系统 :CentOS Linux 6.0(Final) 内核 : Linux 2.6.32 硬件 : HP 3300 Series MT ,内存增加到6G。 Hadoop集群: 一台NameNode 同时作为client node、三台DataNode。数据备份为3分,即dif.replication = 3 。 笔者在测试hadoop性能过程中,在向hadoop集群中put大量数据(50G)的时候,集群中的datanode节点频繁宕机。并且在centos日志系统中没有关于datanode宕机的错误报告。 因为hadoop的测试数据是存放在namenode 中的,所以namenode同时也是client node。经过笔者观察发现,宕机的只是datanode,而client node从来不宕机。在hadoop put数据的过程中,通过ganglia观察到client node的系统负载率要要远远高于datanode 。繁忙的client node不宕机,而相对系统负载率低的datanode却频繁死机,说明了datanode宕机与cpu、内存无关。笔者将目光转向了磁盘I/O和网络I/O。 首先,考虑是否因为磁盘I/O频繁操作引起的datanode系统宕机。因为测试数据存放在client node上,所以要在clent node上进行大量的磁盘读取数据操作。client