LVS+Keepalived构建拓扑图

准备工作

因为搭建了两套环境,所以括号中的是我另一个的环境,紫色标识

RIP: 10.1.31.161+10.1.31.163    (home:192.168.1.103+192.168.1.104)

表示realip对应的真实服务器,即http服务器是apache公司的服务器,linux系统自带可以直接使用,方便快捷。

VIP: 10.1.31.125(192.168.1.125)

表示visualIP虚拟IP,即负载均衡主机虚拟出来的ip地址。用户访问服务必须经过VIP经由负载调度器到RIP某一节点。

DIRECT_SERVER(负载均衡主机和备机):

    BIP-Master: 10.1.31.155  (192.168.1.105)   ------负载均衡主机真实IP

    BIP-Back: 10.1.31.152  (192.168.1.102) --------负载均衡备机真实IP

如图:

搭建RIP指向的两台Http应用服务器

即realServer服务器

①    最先开始从http服务器开始搭建:

# /sbin/iptables -IINPUT -p tcp --dport 80 -j ACCEPT     //开启80端口

# systemctl list-units --type=service

# yum -y install  httpdhttpd-devel

//开启Http服务器

# /bin/systemctl start httpd.service           -------或 # service httpd start

http服务器搭建完成,测试两台http服务器(两个准备的RIP服务器)

在本地环境测试http服务器访问情况:http:// 10.1.31.161/  (http://192.168.1.103)

同样的方式测试另一台http服务器:http:// 10.1.31.163/  (http://192.168.1.104)

②编写静态页

注意:最好http服务器访问应该不一样,这样请求转发时我们能区分。

# cd /var/wwww/html  //进入Http服务器默认的目录

# vi index.html    //编辑Http服务器默认访问页面

---http服务器两台都搭建完毕--end---

③  为每台Real Server创建lvsrs文件

RealServer给自己的lo网卡(127.0.0.1,即localhost)配置虚拟IP-----SNS_VIP地址作为回环,同时配置子网掩码为255.255.255.255,以及广播地址为SNS_VIP

SNS_VIP=192.168.1.125

./etc/rc.d/init.d/functions

case "$1" in

start)

ifconfig lo:0 $SNS_VIP netmask 255.255.255.255 broadcast $SNS_VIP

/sbin/route add -host$SNS_VIP dev lo:0

echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore

echo "2">/proc/sys/net/ipv4/conf/lo/arp_announce

echo "1">/proc/sys/net/ipv4/conf/all/arp_ignore

echo "2">/proc/sys/net/ipv4/conf/all/arp_announce

sysctl -p >/dev/null2>&1

echo "RealServerStart OK"

;;

stop)

ifconfig lo:0 down

route del $SNS_VIP>/dev/null 2>&1

echo "0">/proc/sys/net/ipv4/conf/lo/arp_ignore

echo "0">/proc/sys/net/ipv4/conf/lo/arp_announce

echo "0">/proc/sys/net/ipv4/conf/all/arp_ignore

echo "0">/proc/sys/net/ipv4/conf/all/arp_announce

echo "RealServerStoped"

;;

*)

echo "Usage: $0{start|stop}"

exit 1

esac

exit 0

以上参数说明

SNS_VIP=192.168.1.125            #定义VIP变量

./etc/rc.d/init.d/functions #导脚本库

case "$1" in                 #case语句 $1传递给该shell脚本的第一个参数

start)

ifconfig lo:0 $SNS_VIPnetmask 255.255.255.255 broadcast $SNS_VIP #设置Lo:0 VIP  netmask  及广播

/sbin/route add -host$SNS_VIP dev lo:0                           ##route add 增加本地路由

echo "1">/proc/sys/net/ipv4/conf/lo/arp_ignore

echo "2">/proc/sys/net/ipv4/conf/lo/arp_announce

echo "1">/proc/sys/net/ipv4/conf/all/arp_ignore

echo "2">/proc/sys/net/ipv4/conf/all/arp_announce

sysctl -p >/dev/null2>&1                     # -p<file>   (default /etc/sysctl.conf)将标准信息输入设备空文件

echo "RealServerStart OK"

;;

stop)

ifconfig lo:0 down

route del $SNS_VIP>/dev/null 2>&1             #route del 删除本地路由

echo "0">/proc/sys/net/ipv4/conf/lo/arp_ignore

echo "0">/proc/sys/net/ipv4/conf/lo/arp_announce

echo "0">/proc/sys/net/ipv4/conf/all/arp_ignore

echo "0">/proc/sys/net/ipv4/conf/all/arp_announce

echo "RealServerStoped"

;;

*)

echo "Usage: $0{start|stop}"  #$0 是脚本本身的名字

exit 1                       #表示进程正常退出

esac                         #case结束

exit 0                       #表示进程非正常退出

启动:

/etc/init.d/lvsrs start

报错:

解决办法:

# cd /etc/init.d

# ./lvsrs start

lVS成功!

④ Director Server的配置

在Director Server上配置LVS负载均衡集群,有两种方法:

Ø       通过ipvsadm命令行进行配置LVS

Ø       通过Redhat提供的工具piranha来配置LVS

4.1 通过ipvsadm命令行方式配置LVS

系统安装完毕,可以通过如下命令检查kernel是否已经支持LVS的ipvs模块:

[root@localhost ~]#modprobe -l |grep ipvs

/lib/modules/2.6.18-194.11.1.el5/kernel/net/ipv4/ipvs/ip_vs.ko

/lib/modules/2.6.18-194.11.1.el5/kernel/net/ipv4/ipvs/ip_vs_dh.ko

如果有类似上面的输出,表明系统内核已经默认支持了IPVS模块。接着就可以安装IPVS管理软件了。

  • 安装IPVS管理软件:

rpm -ivh ipvsadm-1.24-10.i386.rpm

Error:  libc.so.6 被ipvsadm-1.24-10.i386 需要

解决:

yum install glibc.i686

yum install libpopt*

yum install libpopt.so.0

#rpm –ivh

nss-softokn-freebl-3.16.2.3-14.2.el7_2.i686.rpmnss-softokn-freebl-3.16.2.3-14.2.el7_2.x86_64.rpmglibc-2.17-106.el7_2.8.i686.rpm

#rpm -ivh popt-1.13-16.el7.i686.rpm  ipvsadm-1.24-10.i386.rpm

  • 配置LVS集群

安装IPVS后,就可以配置LVS集群了,首先在Director Server上给网卡ens33绑定一个虚拟IP(也叫VIP),此IP用于对外提供服务,执行如下命令

# ifconfig  ens33:0 10.1.31.125 broadcast 10.1.31.125 netmask 255.255.255.255 up

(ifconfig  ens33:0 192.168.1.125 broadcast 192.168.1.125 netmask 255.255.255.255 up)

常见错误:

[root@192 init.d]# ifconfig  ens33:0 192.168.1.125 broadcast 192.168.1.125netmask 255.255.255.255 up

SIOCSIFFLAGS: 无法指定被请求的地址

解决:关闭keepalived服务再执行。

在ens33网卡设备上绑定了一个虚拟设备ens33:0,同时设置了一个虚拟IP是10.1.31.125,也就是上面我们规划的虚拟IP地址,然后指定广播地址也为10.1.31.125,需要特别注意的是,这里的子网掩码为255.255.255.255。

然后给设备ens33:0指定一条路由,执行如下指令

#route add -host 10.1.31.125  dev ens33:0

(#route add -host 192.168.1.125  dev ens33:0  )

#echo "1" >/proc/sys/net/ipv4/ip_forward

指令中,参数值为1时启用ip转发,为0时禁止ip转发。

其实在DR模式中,开启系统的包转发功能不是必须的,而在NAT模式下此操作是必须的。

--->然后配置ipvs:

清除内核虚拟服务器列表中的所有记录

ipvsadm -C

添加一条新的虚拟IP记录,这个新的IP是10.1.31.125,同时指定持续服务时间为600秒

ipvsadm -A -t  10.1.31.125:80 -srr -p 600

(ipvsadm –A –t 192.168.1.125:80 –s rr –p 600)

在新加虚拟IP记录中添加两条新的Real Server记录,并且指定LVS 的工作模式为直接路由模式

ipvsadm -a -t 10.1.31.125:80 -r 10.1.31.161:8081 -g

ipvsadm -a -t 10.1.31.125:80 -r 10.1.31.163:8082 –g

ipvsadm –a –t 192.168.1.125:80 –r192.168.1.103:80 –g

ipvsadm –a –t 192.168.1.125:80 –r192.168.1.104:80 -g

启动ipvsadm服务:

#ipvsadm

如此LVS在Director Server上的配置就完成了.

记得开启keepalived服务:

# service keepalived start

浏览器访问VIP地址:http://192.168.1.125/,成功则看到如下界面:

失败则看下80端口是否限制,可用以下语句开启!

/sbin/iptables -I INPUT -p tcp --dport80 -j ACCEPT

以上操作可以写成一个脚本如下:

#!/bin/sh# description: StartLVS of Director serverVIP=10.1.31.125   #定义VIP变量RIP1=10.1.31.161 #定义RIP变量RIP2=10..1.31.163#定义RIP变量. /etc/rc.d/init.d/functions   #导脚本库case "$1"in     #case语句$1传递给该shell脚本的第一个参数start)echo " start LVS of DirectorServer"# 设置eth0:0VIP 和广播/sbin/ifconfig eth0:0 $VIP broadcast $VIP netmask 255.255.255.255 upecho"1" >/proc/sys/net/ipv4/ip_forward#Clear IPVS table/sbin/ipvsadm -C#set LVS/sbin/ipvsadm -A -t$VIP:80 -s rr -p 600/sbin/ipvsadm -a -t$VIP:80 -r $RIP1:80 -g/sbin/ipvsadm -a -t$VIP:80 -r $RIP2:80 -g#Run LVS/sbin/ipvsadm;;stop)echo "close LVSDirectorserver"echo "0">/proc/sys/net/ipv4/ip_forward/sbin/ipvsadm -C/sbin/ifconfig eth0:0 down;;*)echo "Usage: $0 {start|stop}"exit 1Esac

3 通过Redhat提供的工具piranha来配置LVS

Piranha是REDHAT提供的一个基于Web的LVS配置软件,可以省去手工配置LVS的繁琐工作,同时,也可单独提供cluster功能,例如,可以通过Piranha激活Director Server的后备主机,也就是配置DirectorServer的双机热备功能。

Piranha工具的安装非常简单,下载Piranha的rpm包,进行安装即可:

rpm –ivh piranha-0.8.2-1.i386.rpm

Piranha安装完毕后,会产生/etc/sysconfig/ha/lvs.cf文件,默认此文件是空的,可以通过Piranha提供的web界面配置此文件,也可以直接手动编辑此文件,编辑好的lvs.cf文件内容类似如下:

root@localhost ~]# more/etc/sysconfig/ha/lvs.cf

serial_no = 18              #序号。

primary = 192.168.1.105     #指定主DirectorServer的真实IP地址,是相对与有备用的Director Server而言的,也就是给DirectorServer做HA Cluster。

service = lvs               #指定双机的服务名。

backup_active = 0           #是否激活备用DirectorServer。“0”表示不激活,“1”表示激活。

backup = 0.0.0.0             #这里指定备用Director Server的真实IP地址,如果没有备用Director Server,可以用“0.0.0.0”代替。

heartbeat = 0                #是否开启心跳,1表示开启,0表示不开启。

heartbeat_port = 539         #指定心跳的UDP通信端口。

keepalive = 5               #心跳间隔时间,单位是秒。

deadtime = 10                #如果主Director Server在deadtime(秒)后没有响应,那么备份Director

Server就会接管主DirectorServer的服务。

network = direct            #指定LVS的工作模式,direct表示DR模式,nat表示NAT模式,tunnel表示TUNL模式。

debug_level = NONE          #定义debug调试信息级别。

virtual www.ixdba.net{      #指定虚拟服务的名称。

active = 1                          #是否激活此服务。

address =192.168.1.125 eth0:0  #虚拟服务绑定的虚拟IP以及网络设备名。

port = 80                   #虚拟服务的端口。

send = "GET /HTTP/1.0\r\n\r\n"  #给real server发送的验证字符串。

expect = "HTTP"             #服务器正常运行时应该返回的文本应答信息,用来判断real server是否工作正常。

use_regex = 0               # expect选项中是否使用正则表达式,0表示不使用,1表示使用。

load_monitor = none         #LVS中的Director Server能够使用 rup 或ruptime 来监视各个real server的负载状态。该选项有3个可选值,rup、ruptime和none,如果选择rup,每个real server就必须运行rstatd服务。如果选择了ruptime,每个real server就必须运行 rwhod 服务。

scheduler = rr              #指定LVS的调度算法。

protocol = tcp              #虚拟服务使用的协议类型。

timeout = 6                 #real server失效后从lvs路由列表中移除失效real server所必须经过的时间,以秒为单位。

reentry = 15                #某个real server被移除后,重新加入lvs路由列表中所必须经过的时间,以秒为单位。

quiesce_server = 0          #如果此选项为1.那么当某个新的节点加入集群时,最少连接数会被重设

为零,因此LVS会发送大量请求到此服务节点,造成新的节点服务阻塞,

建议设置为0。

server RS1 {                #指定real server服务名。

address = 192.168.1.103    #指定realserver的IP地址。

active = 1                  #是否激活此real server服务。

weight = 1                   #指定此real server的权值,是个整数值,权值是相对于所有real server节点而言的,权值高的realserver处理负载的性能相对较强。

}

server RS2 {

address = 192.168.1.104

active = 1

weight = 1

}

}

编辑完成,然后启动pulse服务,即启动lvs服务

[root@localhost ~]#service pulse start

同理,此种方式下也要启用系统的包转发功能:

[root@localhost ~]#echo "1">/proc/sys/net/ipv4/ip_forward

到此为止,Piranha工具方式配置Director Server完毕。

⑤ Real server 的配置

         在lvs的DR和TUN模式下,用户的访问请求到达真实服务器后,是---->直接返回给用户的而不再经过前端的Director Server.

        因此,就需要在每个Realserver节点上增加虚拟的VIP地址,这样数据才能直接返回给用户,增加VIP地址的操作可以通过创建脚本的方式来实现,创建文件/etc/init.d/lvsrs,脚本内容如下:

#description: start Real ServerVIP=192.168.1.125 /etc/rc.d/init.d/functionscase"$1" instart)echo " Start LVS of Real Server"/sbin/ifconfig lo:0 $VIP broadcast $VIP netmask 255.255.255.255 up/sbin/route add -host $VIP dev lo:0echo "1">/proc/sys/net/ipv4/conf/lo/arp_ignore               echo "2">/proc/sys/net/ipv4/conf/lo/arp_announceecho "1">/proc/sys/net/ipv4/conf/all/arp_ignoreecho "2">/proc/sys/net/ipv4/conf/all/arp_announce;;stop)/sbin/ifconfig lo:0 downecho "close LVS Director server"echo"0">/proc/sys/net/ipv4/conf/lo/arp_ignoreecho "0">/proc/sys/net/ipv4/conf/lo/arp_announceecho "0">/proc/sys/net/ipv4/conf/all/arp_ignoreecho "0">/proc/sys/net/ipv4/conf/all/arp_announce;;*)echo "Usage: $0 {start|stop}"exit 1esac

此操作是在回环设备网卡lo上绑定了一个虚拟IP地址,并设定其子网掩码为255.255.255.255,与Director Server上的虚拟IP保持互通,然后禁止了本机的ARP请求。

由于虚拟ip,也就是上面的VIP地址,是Director Server和所有的Real server共享的,如果有ARP请求VIP地址时,Director Server与所有Real server都做应答的话,就出现问题了,因此,需要禁止Real server响应ARP请求,而lvsrs脚本的作用就是使RealServer不响应arp请求。

RealServer的状态监控

  • ldirectord监控realserver状态

在heartbeat中,ldirectord其实是作为它的一个插件出现的,所以它默认包含在heartbeat软件包中,Ldirectord的核心作用是监控Real Server节点状态,当Real Server失效时,把它从虚拟服务器列表中删除,恢复时重新添加到列表,同时,它还能调用ipvsadm自动创建LVS路由表,这点从下面要讲述的ldirectord.cf中可以看出,这里需要说明的是,ldirectordPiranha都具有监控Real Server的功能。

------ldirectord:如果要通过ldirectord监控节点状态,只需启动ldirectord服务,整个集群系统就可以运行起来,而无需执行上面我们配置的LVS脚本,因为ldirectord会自动调用ipvsadm创建LVS路由表,而我们上面讲述的利用ipvsadm命令行方式配置LVS,是为了让读者能更深入的了解ipvsadm的实现细节和实现机制。

  • Piranha监控realserver状态

------Piranha:"如果是通过Piranha工具配置LVS,就无需使用ldirectord,Piranha工具对应的系统进程是pluse,此进程也会自动调用ipvsadm创建LVS路由表,同时会利用自身的nanny守护进程监控real server的状态!"

  • 安装ldirectord

ldirectord的安装非常简单,直接通过yum就可以安装完成:

[root@localhost root]#yum install  heartbeat-ldirectord

安装完成后,默认的安装路径为/etc/ha.d,同时需要将模板配置文件拷贝到这个目录下,执行如下命令:

[root@localhost root]#   rpm -qheartbeat-ldirectord -d

/usr/share/doc/heartbeat-ldirectord-2.1.3/ldirectord.cf

/usr/share/man/man8/ldirectord.8.gz

[root@localhost root]# cp/usr/share/doc/heartbeat-ldirectord-2.1.3/ldirectord.cf /etc/ha.d

  • 启动或关闭ldirectord服务

/etc/init.d/ldirectord {start|stop}

  • ldirectord配置文件

Ldirectord的配置文件是/etc/ha.d/ldirectord.cf,下面详述下这个文件每个参数的含义:

下面是需要配置的选项,注意,“#”号后面的内容为注释:

# Global Directives

checktimeout=20           #判定real server出错的时间间隔。

checkinterval=10          #指定ldirectord在两次检查之间的间隔时间。

fallback=127.0.0.1:80     #当所有的realserver节点不能工作时,web服务重定向的地址。

autoreload=yes            #是否自动重载配置文件,选yes时,配置文件发生变化,自动载入配置信息。

logfile="/var/log/ldirectord.log"       #设定ldirectord日志输出文件路径。

quiescent=no              #当选择no时,如果一个节点在checktimeout设置的时间周期内没有响应,ldirectord将会从LVS的路由表中直接移除real server,此时,将中断现有的客户端连接,并使LVS丢掉所有的连接跟踪记录和持续连接模板,如果选择为yes,当某个real server失效时,ldirectord将失效节点的权值设置为0,新的连接将不能到达,但是并不从LVS路由表中清除此节点,同时,连接跟踪记录和程序连接模板仍然保留在Director上。

注意:以上几行为ldirectord.cf文件的“全局”设置,它们可以应用到下面多个虚拟主机,下面是每个虚拟主机的配置。

下面是需要配置的选项,注意,“#”号后面的内容为注释:

# Sample for an http virtual service

virtual=10.1.31.125:80                  #指定虚拟的IP地址和端口号,注意,在virtual行后面的行必

须缩进4个空格或以一个tab字符进行标记。

real=10.1.31.161:80 gate      #指定RealServer服务器地址和端口,同时设定LVS工作模式,

用gate表示DR模式,ipip表示TUNL模式,masq表示NAT模式。

real=10.1.31.163:80 gate

fallback=127.0.0.1:80 gate

service=http                     #指定服务的类型,这里是对http服务做负载均衡。

request="index.html"             #ldirectord将根据指定的Real Server地址,结合该选项给出

的请求路径,发送访问请求,检查Real Server上的服务是否正常运行,确保这里给出的页面地址是可访问的,不然ldirectord会误认为此节点已经失效,发生错误监控现象。

receive="Test Page"              #指定请求和应答字串。

scheduler=rr                     #指定调度算法,这里是rr(轮叫)算法。

protocol=tcp                     #指定协议的类型,LVS支持TCP和UDP协议。

checktype=negotiate              #指定Ldirectord的检测类型,默认为negotiate。

checkport=80                        #指定监控的端口号。

virtualhost=www.ixdba.net        #虚拟服务器的名称,随便指定。

  • 启动Piranha +LVS集群服务

LVS负载均衡管理和使用有两种方式,这里以Piranha工具为主进行介绍。

首先,启动每个real server节点的服务:lvsrs:禁止arp

[root@localhost ~]# /etc/init.d/lvsrs  start

start LVS of  REALServer

然后,在Director Server启动pulse服务:

[root@DR1 ~]#/etc/init.d/pulse start

[root@DR1 ~]#/ ipvsadm -L

IP Virtual Server version 1.2.0 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port          Forward Weight  ActiveConn InActConn

TCP 10.1.31.125:http rr persistent 600

-> 10.1.31.161:http         Route    1         3          22

-> 10.1.31.163:http         Route    1         9          10

此时查看pulse服务的系统日志信息如下:

[root@localhost ~]# tail -f/var/log/messages

Nov 22 15:52:55 lvs lvs[7031]: startingvirtual service www.ixdba.net active: 80

Nov 22 15:52:55 lvs lvs[7031]:create_monitor for www.ixdba.net/RS1 running as pid 7039

Nov 22 15:52:55 lvs nanny[7039]: startingLVS client monitor for 192.168.12.135:80

Nov 22 15:52:55 lvs lvs[7031]:create_monitor for www.ixdba.net/RS2 running as pid 7040

Nov 22 15:52:55 lvs nanny[7039]: making192.168.12.246:80 available

Nov 22 15:52:55 lvs nanny[7040]: startingLVS client monitor for 192.168.12.135:80

Nov 22 15:52:55 lvs nanny[7040]: making192.168.12.237:80 available

从日志可以看出,pulse服务启动了一个www.ixdba.net的虚拟服务,同时加载了RS1和RS2两个节点,然后检测到RS1和RS2两个节点对应的80端口可用,最后启动了虚拟IP的80端口,对外提供服务。

日志中“www.ixdba.net”、“RS1”、“RS2”等标识均在Piranha的配置文件/etc/sysconfig/ha/lvs.cf中定义。

Pulse服务启动完毕,通过“ps–ef”命令可以看到有如下进程在运行:

[root@localhost ~]#  ps -ef|grep nanny

/usr/sbin/nanny -c -h 10.1.31.161 -p 80-s GET / HTTP/1.0\r\n\r\n -x HTTP -a 15 -I /

/usr/sbin/nanny -c -h 10.1.31.163 -p 80-s GET / HTTP/1.0\r\n\r\n -x HTTP -a 15 -I /

其中,nanny就是Pulse服务的守护进程,用于监控LVS服务节点的运行状态,类似与ldirectord的节点监控功能

下一篇keepalived: keepalived环境搭建

LVS负载均衡环境搭建相关推荐

  1. 负载均衡环境搭建实战之nginx和tomcat

    Linux基本环境 负载均衡的环境需要在linux下搭建完成,所以有一个基础的linux系统是必须的,这里建议大家按照http://edu.51cto.com/course/10209.html中的基 ...

  2. LVS负载均衡服务器搭建

    LVS简介 现在LVS已经是Linux标准内核的一部分,在Linux2.4内核以前,使用LVS时必须重新编译内核以支持LVS功能模块,但是从Linux2.4内核心之后,已经完全内置了LVS的各个功能模 ...

  3. HAproxy七层负载均衡——环境搭建及实现过程详解

    实验环境 主机名 IP 服务 虚拟机server1 172.25.6.1 haproxy,httpd,服务端 虚拟机server2 172.25.6.2 httpd,php,客户端 虚拟机server ...

  4. LVS 负载均衡服务器搭建(详细)

    转载:http://blog.51cto.com/xuding/1740228 一.LVS概述 1.LVS:Linux Virtual Server 四层交换(路由):根据请求报文的目标IP和目标PO ...

  5. LVS负载均衡群集部署之——NAT模式的介绍及搭建步骤

    文章目录 一.企业群集应用概述 1.1 群集的三种类型 1 负载均衡群集 2 高可用群集 3 高性能运算群集 1.2 负载均衡结构 1.3 负载均衡群集工作模式 (1) NAT模式--地址转换 (2) ...

  6. 图文教程,Nginx+Keepalived(双机热备)介绍已经搭建高可用负载均衡环境

    上一次分享了Nginx相关的应用场景如下: ​Nginx介绍以及一些应用场景说明 在实际使用,单机版的Nginx就不能满足高可用的要求了,在这种情况下,我们使用Nginx+Keepalived(双机热 ...

  7. LVS DR模式 负载均衡服务搭建

    LVS 负载均衡 最近在研究服务器负载均衡,阅读了网上的一些资料,发现主要的软件负载均衡方案有nginx(针对HTTP服务的负载均衡),LVS(针对IP层,MAC层的负载均衡).LVS模式工作在网络层 ...

  8. 构建百万访问量电子商务网站之LVS负载均衡(前端四层负载均衡器)[连载之电子商务系统架构]...

    构建百万访问量电子商务网站之LVS负载均衡(前端四层负载均衡器)[连载之电子商务系统架构] 版本:V1 出处:http://jimmyli.blog.51cto.com/我站在巨人肩膀上Jimmy L ...

  9. WEB集群实现LVS负载均衡+域名解析 经典案例——详解

    实现WEB上线并实现负载均衡+域名解析 项目介绍 项目流程图 项目实际操作 FTP协议 断点续传功能 先安装FTP docker介绍 安装docker-ce构建lnmp LVS负载均衡 lvs负载均衡 ...

最新文章

  1. 【Unity】5.1 3D坐标系基础知识
  2. 理解Android系统的进程间通信原理(二)----RPC机制
  3. 网站大访问量优化整体思路
  4. Netbeans8下 Weblogic EJB案例
  5. mysql 修复表和优化表
  6. [NOIP2016]换教室(概率期望$DP$)
  7. SQL实战之查找所有已经分配部门的员工的last_name和first_name
  8. Thinkphp修改一句代码,使得foreach标签支持对象,增加变量[数组对象]混合解析法!...
  9. WordPress SEO 完全指南
  10. 使用NFC读卡器ACR122u读取银行卡信息
  11. 应用商店应用计算机,应用市场电脑版
  12. MINT:蛋白质相互作用数据库简介
  13. 【Android Jetpack】Room——基本使用篇
  14. 华为5500v3多路径linux6,使用Linux自带多路径multipath
  15. 回射程序改进3——消息的群发
  16. TensorFlow1深度学习基础(笔记二)
  17. 画图现代计算机系统,教程方法;Win10新惊喜:经典画图界面完全现代化电脑技巧-琪琪词资源网...
  18. html怎么设置毛笔字体,三种实用的毛笔书法字体设计制作教程
  19. [万字长文] 人脸识别初步调研报告
  20. 从C到B,20岁的腾讯正在经历一场“生死”腾挪

热门文章

  1. 正确性、健壮性、可靠性、效率、易用性、可读性(可理解性)、可扩展性、可复 用性、兼容性、可移植性
  2. VMware安装windows server2008R2x64
  3. GPU与CPU比较,GPU为什么更适合深度学习?
  4. loadrunner--浏览器不支持或禁止了网页脚本,导致您无法正常登录
  5. 什么是 Null Pointer Exceptions (java.lang.NullPointerException) ,是什么原因造成的?
  6. 什么软件可以代替sc防火墙_车玻璃水的成份是什么?普通肥皂水和清水可以代替吗?...
  7. JetBrains产品字体大小调整
  8. 全网详细介绍nginx的反向代理、正向代理配置,location的指令说明,反向代理的两个示例代码以及全局块,events块和http快的说明。
  9. 关于Go语言的底层,你想知道的都在这里!
  10. 隐私泄露中的人性剖析