网卡bonding模式 – bond0、1、4配置

网卡bonding简介网卡绑定就是把多张物理网卡通过软件虚拟成一个虚拟的网卡,配置完毕后,所有的物理网卡的ip和mac将会变成相同的。多网卡同时工作可以提高网络速度,还可以实现网卡的负载均衡、冗余。bonding模式1    round-robin(mode=0)轮转策略,轮流在每一个slave网卡上发送数据包,提供负载均衡和容错能力。     

大家好,又见面了,我是你们的朋友全栈君。

网卡bonding简介

网卡绑定就是把多张物理网卡通过软件虚拟成一个虚拟的网卡,配置完毕后,所有的物理网卡的ip和mac将会变成相同的。多网卡同时工作可以提高网络速度,还可以实现网卡的负载均衡、冗余。


bonding模式

1    round-robin(mode=0)

轮转策略,轮流在每一个slave网卡上发送数据包,提供负载均衡和容错能力。         


2    active-backup(mode=1)

主备策略,只有一个slave被激活,只有当active的slave的接口down时,才会激活其它slave接口。主备模式下发生一次故障切换,在新激活的slave接口上会发送一个或者多个gratuitous ARP。主salve接口上以及配置在接口上的所有VLAN接口都会发送gratuitous ARP,需要在这些接口上配置了至少一个IP地址。VLAN接口上发送的的gratuitous ARP将会附上适当的VLAN id。本模式提供容错能力。

Gratuitous ARP也称为免费ARP,无故ARP。Gratuitous ARP不同于一般的ARP请求,它并非期待得到ip对应的mac地址,而是当主机启动的时候,将发送一个Gratuitous arp请求,即请求自己的ip地址的mac地址。(来自百度百科:http://baike.baidu.com/view/10101910.htm)


3    XOR(mode=2)

基于所选择的hash策略,本模式也提供负载均衡和容错能力。


4    broadcast(mode=3)

广播策略,向所有的slave接口发送数据包,本模式提供容错能力。


5    802.3ad(mode=4)

动态链路聚合,根据802.3ad标准利用所有的slave建立聚合链路。slave接口的出口取决于传输的hash策略,默认策略是简单的XOR策略,而hash策略则可以通xmit_hash_policy选项配置

前提:每个slave网卡支持ethtool获取速率和双工状态

         交换机支持IEEE 802.3ad标准(可能需要配置启用)

IEEE 802.3ad 是执行链路聚合的标准方法。从概念上讲,将多个以太网适配器聚集到单独的虚拟适配器方面与“以太通道(EtherChannel)”的功能相同,能提供更高的带宽防止发生故障。例如,eth0 和 eth1 可以聚集到称作 eth3 的 IEEE 802.3ad链路聚合;然后用 IP 地址配置接口 eth3。系统将这些聚集的适配器作为一个适配器来考虑。因此,可以像在任何以太网适配器上一样配置它们的 IP。(来自百度百科:http://baike.baidu.com/view/1996279.htm?fr=aladdin)


6    balance-tlb(mode=5)

自适应传输负载均衡:根据每个slave的负载(相对速度)决定从哪个接口发送数据包,从当前接口接收数据包。如果接收的slave接口故障,其它slave接口将接管它的mac地址继续接收。

前提:每个slave网卡支持ethtool获取速率。


7    balance-alb(mode=6)

自适应负载均衡:

前提:每个slave网卡支持ethtool获取速率

          每个slave网卡支持启用时重新设置硬件地址


小结:

mode 1、5、6不需要交换机设置

mode 0、2、3、4需要交换机设置

缺省使用mode 0

bonding驱动加载

1
2
3
4
5
cat 
/boot/config-2
.6.32-431.el6.x86_64 | 
grep 
-i bonding  
CONFIG_BONDING=m          
# 这里可以看出bonding驱动编译成可以动态加载的内核模块
[root@compute1 ~]
# vim /etc/modprobe.d/bond.conf   # 开机自动加载bonding驱动
alias 
bond0 bonding
options bond0 miimon=100 mode=0   
# miimon:多长时间检查一次网络,单位ms;

bonding模式0配置

1
2
3
4
5
6
7
8
vim  
/etc/sysconfig/network-scripts/ifcfg-bond0         
# 建立虚拟网卡bond0
DEVICE=bond0
IPADDR=10.10.10.1
NETMASK=255.255.255.0
ONBOOT=
yes
BOOTPROTO=none
USERCTL=no
GATEWAY=10.10.10.254

1
2
3
4
5
6
7
vim  
/etc/sysconfig/network-scripts/ifcfg-eth0 
DEVICE=eth0
BOOTPROTO=none
ONBOOT=
yes
USERCTL=no
MASTER=bond0
SLAVE=
yes

1
2
3
4
5
6
7
vim  
/etc/sysconfig/network-scripts/ifcfg-eth1
DEVICE=eth1
BOOTPROTO=none
ONBOOT=
yes
USERCTL=no
MASTER=bond0
SLAVE=
yes

# 设置完成后,重启网络服务来使用bond0生效

1
service network restart  
# bond模块会自动加载

1
2
cat 
/proc/net/bonding/bond0  
# 查看目前bonding的状态
modprobe -r bonding;service network restart   
# 让bond模式生效


bonding纯网卡配置文件方式

wKioL1hcypTiZ9o5AAoBZ4NhThM026.png


bonding模式1配置

1
2
3
4
5
6
7
#  具体操作步骤就下面这步不同,其它一致。
vim 
/etc/modprobe
.d
/bond
.conf   
alias 
bond0 bonding
options bond0 miimon=100 mode=1    
# 模式1
 
vim 
/etc/rc
.d
/rc
.
local   
# eth0 eth1的工作顺序(仅在主备模式下)
ifenslave bond0 eth0 eth1

注:在高可用的环境下,网卡配置bonding后,vip_nic要为bond0


bonding模式4配置

1
2
3
4
#  具体操作步骤就下面这步不同,其它一致。
vim 
/etc/modprobe
.d
/bond
.conf   
alias 
bond0 bonding
options bond0 miimon=100 mode=4 lacp_rate=1    
# 模式4


盛科交换机的lacp配置参考:http://pan.baidu.com/s/1o8rL6II 《二层转发保护》

注意的是:交换机和服务器连接的那块要配置动态的channel-group


bond4下启动vlan子接口

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
# 永久加载8021q module
cat 

/etc/sysconfig/modules/8021q
.modules << EOF
\
#\!/bin/sh
if 
[ ! `lsmod | 
grep 
8021q` ] ; 
then
        
exec 
/sbin/modprobe 
8021q >
/dev/null 
2>&1
fi
EOF
 
modprobe 8021q 
# 加载模块
vim  
/etc/sysconfig/network-scripts/ifcfg-bond0
.110  
# vlan子接口,发出去的包是带有vlan tag 110的
DEVICE=bond0.110          
# vlan子接口要“.”分隔
BOOTPROTO=none
ONBOOT=
yes
USERCTL=no
VLAN=
yes                  
# 写配置文件,就不要安装vconfig来配置vlan子接口
IPADDR=192.168.110.3
PREFIX=24



bond4结合OpenStack ovs flat vlan模式

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
1、 采用linux bridge
    
brctl addbr br-bond
    
brctl addif br-bond bond0
    
ifconfig 
br-bond 192.168.1.4
/24   
# 这样配置是可以通的
     
2、 采用openvswitch
    
ovs-vsctl add-br br-bond
    
ovs-vsctl add-port br-bond bond0
    
ifconfig 
br-bond 192.168.1.4
/24   
# 这样配置是不通的
     
    
如果进行如下操作,网络是可以通的
    
brctl addbr br-bond
    
brctl addif br-bond bond0
    
ifconfig 
br-bond 192.168.1.4
/24  
# 管理ip地址配置linux bridge上,不是配置在br-data上
     
    
ovs-vsctl add-br br-data            
# 创建一个br-data
    
ovs-vsctl add-port br-data br-bond  
# br-bond作为ovs bridge的一个port,不然计算节点下的虚拟机网络不通
     
    
[root@sha-cloud002 ~]
# cat /etc/sysconfig/network-scripts/ifcfg-br-bond  # br-data配置文件如下
    
DEVICE=br-bond
    
IPADDR=10.10.10.12
    
NETMASK=255.255.255.0
    
ONBOOT=
yes
    
NM_CONTROLLED=
"no"
    
BOOTPROTO=none
    
TYPE=Bridge
    
DELAY=0  
# prevent it waiting on interface start
     
# 这里需要注意一下,如果是hp刀片服务器,网卡做bond后划vlan子接口才能
和上端交换机通信。这时候配置需要调整下
    
ovs-vsctl add-port br-data eth0.470(举例vlan 
id
:470)
    
ovs-vsctl 
set 
Port eth0.470 tag=470(打了tag后相当于access口,access口出去的包是不带vlan 
id
的)


虽然上述操作也可以,但让人觉得怪怪的,下面是OVS下设置lacp的正确方式

wKiom1em5jfhrvoeAAG5B-u1s6s860.png


按照红帽官网的建议是不要使用基于ovs的lacp,可以考虑使用balance-slb

wKiom1em5zexXGCSAAFRafSr5-k832.png

详情见:https://access.redhat.com/documentation/en/red-hat-openstack-platform/8/networking-guide/chapter-2-openstack-networking-concepts


关于bond模式下网桥配置可以参考红帽的官方文档:https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Deployment_Guide/s2-networkscripts-interfaces_network-bridge.html


参考链接

http://www.cnblogs.com/Skyar/p/3397072.html

原文链接:http://blog.51cto.com/iceyao/1572214

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/126252.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号