VMware ESX 5.0 网卡负载均衡配置3种方法
http://blog.chinaunix.net/uid-186064-id-3984942.html

(1) 基于端口的负载均衡 (Route based on the originating virtual port ID)(这个是默认支持)

这种方式下,负载均衡是基于vPort ID的。一个vPort和Host上的一个pNIC捆绑在一起,只有当这个pNIC失效的时候,才切到另外的pNIC链路上。这种方式的负载均衡只有在vPort数量大于pNIC的数量时才生效。对于VM来说,因为某台VM的vNIC是捆绑在某一个pNIC上的,也就是说这台VM(如果只有一个vNIC的话)对外的数据流量将固定在某一个pNIC上。这种负载均衡是在VM之间的均衡,对于某一台VM而言,其uplink的速率不可能大于单个pNIC的速率。此外,只有当VM的数量足够多,并且这些VM之间的数据流量基本一致的情况下,Host上的NIC Teaming的Load Balancing才较为有效。对于以下这些极端情况,基于端口方式的负载均衡根本不起作用或者效果很差,充其量只能说是一种端口冗余。
a.Host上只有一台只具有单vNIC的VM (此时完全没有Load balancing)
b.Host上的VM数量比pNIC少(比如有4台VM但是Teaming中有5块pNIC,此时有一块pNIC完全没用上,其他每个vNIC各自使用一块pNIC,此时也没有任何负载均衡实现)
c.Host上虽然有多台VM,但是99%的网络流量都是某一台VM产生的

(2) 基于源MAC地址的负载均衡 Route based on source MAC hash

这种方式下,负载均衡的实现是基于源MAC地址的。因为每个vNIC总是具有一个固定的MAC地址,因此这种方式的负载均衡同基于端口的负载均衡具有同样的缺点。同样是要求vPort数量大于pNIC的时候才会有效。同样是vNIC的速率不会大于单个pNIC的速率

(3) 基于IP Hash的负载均衡 Route based on IP hash

这种方式下,负载均衡的实现是根据源IP地址和目的IP地址的。因此同一台VM(源IP地址总是固定的)到不同目的的数据流,就会因为目的IP的不同,走不同的pNIC。只有这种方式下,VM对外的流量的负载均衡才能真正实现。
不要忘记,VMware是不关心对端物理交换机的配置的,VMware的负载均衡只负责从Host出站的流量(outbound),因此要做到Inbound的负载均衡,必须在物理交换机上做同样IP Hash方式的配置。此时,pNIC必须连接到同一个物理交换机上。
需要注意的是,VMware不支持动态链路聚合协议(例如802.3ad LACP或者Cisco的PAgP),因此只能实现静态的链路聚合。(类似于HP的SLB)。不仅如此,对端的交换机设置静态链路聚合的时候也要设置成IP Hash的算法。否则这种方式的负载均衡将无法实现。
这种方式的缺点是,因为pNIC是连接到同一台物理交换机的,因此存在交换机的单点失败问题。此外,在点对点的链路中(比如VMotion),2端地址总是固定的,所以基于IP Hash的链路选择算法就失去了意义。
如何配置网卡聚合:

点击【主机】—>【配置】—>【网络】—>【属性】:

在上面的选项卡中选择【网络适配器】—>【添加】—>在右边弹出的窗口中选择相应要绑定的网卡,接着一直下一步就可以了。


这一步是将两张网卡绑定在一起,实现双网卡绑定,下面要进行绑定策略的设置。

点击上图的【属性】—>选择【端口】选项卡—>【编辑】—>在弹出的窗口中选择网卡绑定
可以看到下图有四种负载均衡策略:

按文章开始的说明选择符合自己需求的策略,默认是基于vport ID 进行负载均衡。
在VMware ESX 上配置网卡网络负载均衡就完成了。

转载于:https://www.cnblogs.com/jinanxiaolaohu/p/10168138.html

[转帖]ESXi 网卡绑定 增加吞吐量的方法相关推荐

  1. linux系统单网卡绑定双IP的方法

    linux系统单网卡绑定双IP的方法 1. 进入目录: cd /etc/sysconfig/network-scripts/ 2. 使用vi命令编辑ifcfg-eth0,如下: # Advanced ...

  2. linux7.3网卡绑定模式,Centos7网卡绑定的两种方法

    一.传统的bond方式 (1)bond几种主要模式介绍 ümode 0 load balancing (round-robin)模式,需要交换机端支持,支持多端口负载均衡,支持端口冗余,slave接口 ...

  3. 深入浅出多网卡绑定技术

    在存储系统中为了提高后端设备的吞吐量,往往需要采用多网卡绑定技术.例如,后端存储最大能够提供300MB/s的吞吐量,因此需要采用3块1Gps的网卡并发传输才可以达到峰值性能.那么,从研发的角度来看如何 ...

  4. linux网卡绑定和漂移,LINUX修改、增加IP的方法,一张网卡绑定多个IP/漂移IP【转】...

    临时增加IP命令:ifconfig eth0:1 ip地址 netmask 子网码 broadcast 广播地址 gateway 网关 ifconfig eth0:1 10.1.104.65 netm ...

  5. 腾讯云服务器增加网卡,腾讯云centos7服务器添加辅助网卡绑定多IP实践

    购买的腾讯云CVM服务器默认只有一个公网IP的,如果您的业务有多IP的需求,可以通过云服务器绑定弹性网卡,再通过弹性网卡绑定弹性公网IP的方式实现.本文为介绍如何通过绑定弹性网卡的方式,绑定弹性公网I ...

  6. LINUX修改 增加IP的方法 一张网卡绑定多个IP/漂移IP

    首先给大家分享一个巨牛巨牛的人工智能教程,是我无意中发现的.教程不仅零基础,通俗易懂,而且非常风趣幽默,还时不时有内涵段子,像看小说一样,哈哈-我正在学习中,觉得太牛了,所以分享给大家!点这里可以跳转 ...

  7. linux双网卡绑定+单网卡多IP绑定

    网卡模式简介: 目前网卡绑定mode共有七种(0~6)bond0.bond1.bond2.bond3.bond4.bond5.bond6 常用的有三种: mode=0:平衡负载模式,有自动备援,但需要 ...

  8. Linux下双网卡绑定(bonding技术)

    Linux网卡绑定探析 2013-08-20 15:39:31 现在很多服务器都自带双千兆网口,利用网卡绑定既能增加网络带宽,同时又能做相应的冗余,目前应用于很多的场景.linux操作系统下自带的网卡 ...

  9. 【干货】Linux 网卡绑定的相关知识和技巧

    原理知识 Linux 多网卡的7种bond模式原理 Linux 多网卡绑定 网卡绑定mode共有七种(0~6) bond0.bond1.bond2.bond3.bond4.bond5.bond6 常用 ...

最新文章

  1. 024_Jedis连接池
  2. 剑网三缘起,签到领奖活动还能获得白猫,满级玩家5天就得跟宠
  3. 耗尽您CPU资源的Explored病毒清除法
  4. python函数应用实例_【Python 第22课】 函数应用示例
  5. USACO2.4のP1522-牛的旅行(Cow Tours)【最短路Flody】
  6. 关于java流的几个概念:IO、BIO、NIO、AIO,有几个人全知道?
  7. 中文邮件营销html模版,怎么制作邮件营销模板?— —邮件格式
  8. C++类对象排序operator重载操作
  9. yii2 ajax访问控制器,如何在yii2中运行控制器动作作为ajax
  10. Dubbo核心知识点
  11. 行为型设计模式之解释器模式(Interpreter)
  12. 福利网站!程序员面试——算法工程师面试大全第一部分
  13. mysql服务remove失败_《MySQL数据库》MySql简介、下载与安装
  14. owasp testing guide 2014 中文
  15. (图论) Tarjan 算法
  16. matlab绘制二元一次函数图像_如何用matlab数据拟合函数?用matlab求解多元线性方程...
  17. PhpSpreadsheet设置单元格常用操作汇总
  18. 019年中国航空三字代码对照表完全汇总
  19. 服务器提交任务和直接运行,linux下任务提交以及如何后台运行任务
  20. 关于电影视频服务器架设的方法

热门文章

  1. EDA实验课课程笔记(三)——TCL脚本语言的学习1
  2. SAP 录屏BDC使用—实例
  3. 线性回归的从零开始实现-08-p3
  4. linux vim 粘贴 没有保持原来的格式,linux中的剪贴板用法,实现vim中原格式粘贴...
  5. javascript arguments(转)
  6. flex中list或Combox中的子项上移下移操作
  7. 卡巴2009与word冲突完美解决方案,经测试几十台计算机全部通过
  8. python中ndarray除_Numpy 基本除法运算和模运算
  9. Software Defined Perimeter白皮书
  10. [转载] 丛林中的糖果小屋