我是靠谱客的博主 火星上巨人,最近开发中收集的这篇文章主要介绍Linux高级网络配置--网卡捆绑与网桥,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

1.网卡捆绑

基础概念:
  网卡捆绑就是将两个或者更多的物理网卡绑定成一个虚拟网卡;以提供负载均衡或者冗余,增加带宽的作用;同时,当在主备模式下,若有一个网卡坏掉时,会启用另一块网卡,不会因为网卡坏掉对业务造成影响。

2.网卡捆绑- -bond:

首先,我们应该删除网卡上现有的所有网络配置:
ifconfig命令显示如下:
在这里插入图片描述
配置文件显示如下:无任何网络配置文件
在这里插入图片描述
#############1.命令方式进行捆绑##########
1.添加bond接口:

nmcli connection add con-name bond0 ifname bond0 type bond mode active-backup ip4 172.25.254.239/24
		##con-name:连接的名称
		##ifname:接口名称
		##type:类型:bond
		##mode:模式:active-backup(主备)
		##ip4:逻辑网卡ip地址

在这里插入图片描述
使用ifconfig命令,我们可以看到此bond接口的配置:
在这里插入图片描述
2. /proc/net/bonding/bond0 ##此文件记录虚拟网卡的信息
查看此文件,我们可以看到当前此接口没有添加任何认识的物理设备:
在这里插入图片描述
此时,ping 网卡bond0的ip不能ping通:
在这里插入图片描述
3.添加真实设备:
上面使用ifconfig命令,我们可以看到,当前主机中存在两块网卡设备:eth0、eth1:

nmcli connection add con-name eth0 ifname eth0 type bond-slave master bond0
	##将网卡eth0捆绑到bond0
nmcli connection add con-name eth1 ifname eth1 type bond-slave master bond0
	##将网卡eth1捆绑到bond0

在这里插入图片描述
此时,我们再查看bond0的信息:
在这里插入图片描述
此时,ping网卡bond0,就可以ping通:
在这里插入图片描述
测试:
若我们将网卡设备eth0关掉,会发现当前使用的设备变成eth1:
在这里插入图片描述
再将eth0开启,当前使用设备仍不变,只有当前使用的eth1关闭后,才会使用eth0:
在这里插入图片描述
在这里插入图片描述
4.删除网卡:

删除虚拟网卡bond0:nmcil connection delet bond0	
删除两块物理网卡配置:nmcil connection delet eth0|1

在这里插入图片描述
####################2.文件方式配置###################
1.bond0接口配置:

cd /etc/sysconfig/network-scripts/
vim ifcfg-bond0		##写bond0的配置文件

在这里插入图片描述
在这里插入图片描述
2.物理网卡配置:
###eth0配置:
在这里插入图片描述
在这里插入图片描述
###eth1配置:
在这里插入图片描述
在这里插入图片描述
3.重启网络:systemctl restart network
我们可以看到,bond0的信息如下:
在这里插入图片描述
使用文件进行配置与使用命令进行配置的效果相同,此外,我们还可以使用nm-connection-editor使用图形的方式进行配置,删除时,同样依照上面的方法进行删除即可。

3.网卡捆绑- -team

与bond相比,team支持hash功能,支持负载均衡,同时支持ipv6,而bond并不支持这些功能,team接口的配置与bond相似。
############1.命令方式进行配置############
1.添加team接口:

nmcli connection add con-name team0 ifname team0 type team config 
> '{"runner":{"name":"activebackup"}}' ip4 172.25.254.239/24
		##''表示批量转义
		##runner:运行方式
		##activebackup:主备模式

在这里插入图片描述
2.添加真实设备

nmcli connection add con-name eth0 ifname eth0 type team-slave master team0
nmcli connection add con-name eth1 ifname eth1 type team-slave master team0

在这里插入图片描述
3.查看接口状态:

teamdctl team0 stat		##查看接口team0的状态

在这里插入图片描述
同bond一样,如果我们关闭eth0,此时使用eth1:
在这里插入图片描述
删除方式同bond的删除相同,因此不在详细说明。
#############2.文件方式进行配置#############
1.team0配置:

cd /etc/sysconfig/network-scripts/
vim ifcfg-team0		##写team0的配置文件

在这里插入图片描述
3.网卡eth0|1配置:
在这里插入图片描述
4.重启网络,查看team0状态:
在这里插入图片描述
使用文件方式配置与使用命令配置的效果是相同的。

4.桥接

 应用场景:我们在真实借助中安装虚拟机时 ,由于虚拟机没有真实的物理网卡,因此,虚拟机的数据接收与发送都需要依赖真实主机的物理网卡,若没有搭建网桥,那么虚拟机的每个数据包都需要经过真实主机的内核处理,这无疑增加了内核的负担,同时也让虚拟机的反应速度变慢,搭建网桥之后,数据包就不需要再经过真实主机的内核进行处理,而是通过网桥在真实网卡与虚拟网卡之间传输,这不仅减小了内核的负担,同时也增加了数据的传输速度。
在实验之前,我们可以看到此时虚拟机的ip是172.25.150.50,此时真实主机可以ping通虚拟机:
在这里插入图片描述
在这里插入图片描述
1.查看真机的网卡,删除真机所有网络配置:
使用ifconfig命令,我们可以看到,当前真机网卡为enp0s25:
在这里插入图片描述
同时,也没有任何网络配置文件:
在这里插入图片描述
2.真机网卡配置:
在这里插入图片描述
在这里插入图片描述
3.网桥br0配置:
在这里插入图片描述
在这里插入图片描述
4.重启网络,ifconfig查看此时网络配置,我们可以此时br0的ip为我们配置的静态ip:
在这里插入图片描述
5.查看br0状态:brctl show ##显示网桥
我们可以看到,当前网桥br0接到真机网卡上:
在这里插入图片描述
若我们需要与虚拟机进行通信,此时还需要对虚拟机进行配置:
首先我们可以看到当前虚拟机网路没有进行任何配置:
在这里插入图片描述
1.添加网桥br0:

brctl aadbr br0		##添加一个桥接br0

在这里插入图片描述
2.给网桥接入网卡:

brctl addif br0 eth0	##给br0接入网卡eth0

在这里插入图片描述
3.为br0配ip:

ifconfig br0 172.25.150.50/24

在这里插入图片描述
配置完成后,此时真机与虚拟机可以ping通:
在这里插入图片描述

最后

以上就是火星上巨人为你收集整理的Linux高级网络配置--网卡捆绑与网桥的全部内容,希望文章能够帮你解决Linux高级网络配置--网卡捆绑与网桥所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(82)

评论列表共有 0 条评论

立即
投稿
返回
顶部