双网卡绑定之负载均衡高可用(bond)
一、bond的工作原理
所谓的bond就是将两块或两块以上网卡绑定同一个IP地址对外提供服务,从而实现负载均衡高可用。当然,直接给两块网卡设置同一IP地址 是不可能的。通过bonding,虚拟一块网卡对外提供连接, 物理网卡的被修改为相同的MAC地址。
二、bond工作模式分类
1)Mode 0 (balance-rr) 轮转(Round-robin)策略:从头到尾顺序的在每一个slave 接口上面发送数据包。本模式提供负载均衡和容错的能力
2)Mode 1 (active-backup) 活动-备份(主备)策略:在绑定中,只有一个slave被激活。 当且仅当活动的slave接口失败时才会激活其他slave。为了 避免交换机发生混乱此时绑定的MAC地址只有一个外部端口上可见
3)Mode 3 (broadcast) 广播策略:在所有的slave接口上传送所有的报文。本模式提供 无容错能力。
三、实现步骤
1、为每个设备生成独立的接口配置文件,关闭NetworkManager服务。
chkconfig --level 3 NetworkManager off
2、添加网卡,配置静态联网(bond0)
[root@centos6 network-scripts]# cat ifcfg-bond0 DEVICE=bond0 IPADDR=10.1.249.34 PRFIX=16 GATEWAY=10.1.249.254 DNS1=8.8.8.8 BONDING_OPTS="miimon=101 mode=0" #如果mode=0则为轮转模式,为1则为主备模式,为3则为广播策略 [root@centos6 network-scripts]# cat ifcfg-eth0 DEVICE=eth0 SLAVE=yes MASTER=bond0 [root@centos6 network-scripts]# cat ifcfg-eth1 DEVICE=eth1 SLAVE=yes MASTER=bond0 [root@centos6 network-scripts]#
3、随意断开一网卡测试,并查看结果
[root@centos6 network-scripts]# !cat cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) Bonding Mode: fault-tolerance (active-backup) Primary Slave: None Currently Active Slave: eth0 MII Status: up MII Polling Interval (ms): 102 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 00:0c:29:7c:55:8d Slave queue ID: 0 Slave Interface: eth1 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 00:0c:29:7c:55:97 Slave queue ID: 0 [root@centos6 network-scripts]# [root@centos6 ~]# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) Bonding Mode: load balancing (round-robin) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 3 Permanent HW addr: 00:0c:29:7c:55:8d Slave queue ID: 0 Slave Interface: eth1 MII Status: down Speed: Unknown Duplex: Unknown Link Failure Count: 3 Permanent HW addr: 00:0c:29:7c:55:97 Slave queue ID: 0 [root@centos6 ~]# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) Bonding Mode: fault-tolerance (broadcast) MII Status: up MII Polling Interval (ms): 101 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 2 Permanent HW addr: 00:0c:29:7c:55:8d Slave queue ID: 0 Slave Interface: eth1 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 1 Permanent HW addr: 00:0c:29:7c:55:97 Slave queue ID: 0 [root@centos6 ~]#
[root@centos6 network-scripts]# ifconfig bond0 Link encap:Ethernet HWaddr 00:0C:29:7C:55:8D #三的MAC地址信息是一样的,代表绑定为一块网卡inet addr:10.1.249.34 Bcast:10.255.255.255 Mask:255.0.0.0inet6 addr: fe80::20c:29ff:fe7c:558d/64 Scope:LinkUP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1RX packets:62258 errors:0 dropped:0 overruns:0 frame:0TX packets:7493 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:5599522 (5.3 MiB) TX bytes:716163 (699.3 KiB) eth0 Link encap:Ethernet HWaddr 00:0C:29:7C:55:8D #三的MAC地址信息是一样的,代表绑定为一块网卡UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:32698 errors:0 dropped:0 overruns:0 frame:0TX packets:4300 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:2915521 (2.7 MiB) TX bytes:393343 (384.1 KiB) eth1 Link encap:Ethernet HWaddr 00:0C:29:7C:55:8D #三的MAC地址信息是一样的,代表绑定为一块网卡UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:33832 errors:0 dropped:0 overruns:0 frame:0TX packets:3359 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:3059478 (2.9 MiB) TX bytes:339826 (331.8 KiB) lo Link encap:Local Loopbackinet addr:127.0.0.1 Mask:255.0.0.0inet6 addr: ::1/128 Scope:HostUP LOOPBACK RUNNING MTU:65536 Metric:1RX packets:425 errors:0 dropped:0 overruns:0 frame:0TX packets:425 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:42694 (41.6 KiB) TX bytes:42694 (41.6 KiB) [root@centos6 network-scripts]#
截图演示:
1、关闭NetworkManager服务
2、准备所有配置文件
转载于:https://blog.51cto.com/purify/1845804
双网卡绑定之负载均衡高可用(bond)相关推荐
- linux配置网卡绑定后不生效,Linux双网卡绑定实现负载均衡和失效保护
在这介绍的Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作.其实这项 ...
- linux 网卡绑定updelay,Linux 配置双网卡绑定实现负载均衡
Linux 配置双网卡绑定,实现负载均衡 1.Bond的工作模式 Linux bonding驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余. bonding ...
- nginx负载均衡高可用
1.1 什么是负载均衡高可用 nginx作为负载均衡器,所有请求都到了nginx,可见nginx处于非常重点的位置,如果nginx服务器宕机后端web服务将无法提供服务,影响严重. 为了屏蔽负载均 ...
- Lvs+keepAlived实现负载均衡高可用集群(DR实现)
第1章 LVS 简介 1.1 LVS介绍 LVS是Linux Virtual Server的简写,意为Linux虚拟服务器,是虚拟的服务器集群系统,可在UNIX/LINUX平台下实现负载均衡集群功能. ...
- Nginx+KeepAlived实现负载均衡高可用原理
作者:田超凡 原创博文,严禁复制转载,仿冒必究 nginx负载均衡高可用 什么是负载均衡高可用 nginx作为负载均衡器,所有请求都到了nginx,可见nginx处于非常重点的位置,如果nginx服务 ...
- 双网卡聚合 linux,linux双网卡聚合 做负载均衡
<linux双网卡聚合 做负载均衡>由会员分享,可在线阅读,更多相关<linux双网卡聚合 做负载均衡(5页珍藏版)>请在人人文库网上搜索. 1.linux双网卡聚合 做负载均 ...
- LVS+Keepalived-DR模式负载均衡高可用集群
LVS+Keepalived DR模式负载均衡+高可用集群架构图 工作原理: Keepalived采用VRRP热备份协议实现Linux服务器的多机热备功能. VRRP,虚拟路由冗余协议,是针对路由器的 ...
- LVS原理详解及部署之五:LVS+keepalived实现负载均衡高可用
本文我们主要讲解的是LVS通过keepalived来实现负载均衡和高可用,而不是我们第三篇文章介绍的通过手动的方式来进行配置.通过脚本的方式来显示RS节点的健康检查和LVS的故障切换.此文会通过一个实 ...
- 双网卡实现自动负载均衡
"双网卡实现自动负载均衡:在Windows NT 4.0或Windows 2000环境中,自动负载均衡(Adaptive Load Balancing,简称ALB)使用由服务器自带的两个In ...
最新文章
- 量子算法、DNA计算与后经典计算时代
- IntelliJ IDEA出现:This file is indented with tabs instead of 4 spaces的问题解决
- 什么是Activity、生命周期
- [转载]线上应用故障排查之一:高CPU占用
- windows server 2008R2下的mysql主从同步配置
- java log4j 多个文件_java – Log4j:每个请求一个日志文件
- linux io映射,【原创】Linux 文件系统移植全解密以linux-2.6.35内核源码为例说明一下IO静态映射的过程...
- 无法访问虚拟机tomcat网页
- GWT和HTML5 Canvas演示
- Vue SSR(Vue2 + Koa2 + Webpack4)配置指南
- java实现tcp服务器(单线程、多线程)、客户端
- 2021新手、小白快速安装KALI教程
- python-合并两个txt文件
- unit10-Cookie、Session
- 关于简单控件RadioButtonList的使用
- 安装 KubeOperator
- 怎么可以修改pr基本图形中的文字_10、Pr中基本图形安装使用,点点就可以应用高级的字幕...
- qt windows ble低功耗蓝牙
- 计算机存储单位--“大数据”概念
- docker保存镜像、打包tar、加载tar镜像