负载均衡(LVS)三种⼯作模式
⼀、LVS概述
LVS是Linux内核的⼀部分,因此性能较⾼
Linux虚拟服务器(即分发器或调度器): 不真正提供服务,但接受客户的访问,为整个集提供⼀个唯⼀的⼊⼝
虚拟服务器和真实服务器(Real Server)通信
真实服务器(Real Server): 真正提供服务,集中每个Real Server可以是物理机,也可以是虚拟机
VS/NAT: ⽹络地址转换模式, 进站/出站的数据流量经过分发器
VS/DR: 直接路由模式,只有进站的数据流量经过分发器
调度器和真实服务器必须在同⼀⽹段
VS/TUN: 隧道模式,只有进站的数据流量经过分发器
LVS调度算法
调度算法⽤于决定LVS如何选择后端的RealServer
1. 轮叫调度(Round Robin)(简称rr)
调度器通过“轮叫”调度算法将外部请求按顺序轮流分配到集中的真实服务器上,它均等地对待每⼀台服务器,⽽不管服务器上实际的连接数和系统负载。
2. 加权轮叫(Weighted Round Robin)(简称wrr)
调度器通过“加权轮叫”调度算法根据真实服务器的不同处理能⼒来调度访问请求。这样可以保证处理能⼒强的服务器能处理更多的访问流量。调度器可以⾃动问询真实服务器的负载情况,并动态地调整其权值。
3. 最少链接(Least Connections)(LC)
调度器通过“最少连接”调度算法动态地将⽹络请求调度到已建⽴的链接数最少的服务器上。如果集系统的真实服务器具有相近的系统性能,采⽤ “最⼩连接” 调度算法可以较好地均衡负载。
4.加权最少链接(Weighted Least Connections)(WLC)
在集系统中的服务器性能差异较⼤的情况下,调度器采⽤“加权最少链接”调度算 法 优化负载均衡性能,具有较⾼权值的服务器将承受较⼤⽐例的活动连接负
载。调度器可以⾃动问询真实服务器的负载情况,并动态地调整其权值。
1. 基于局部性的最少链接(Locality-Based Least Connections)(LBLC)
“基于局部性的最少链接”调度算法是针对⽬标IP地址的负载均衡,⽬前主要⽤于Cache集系统。该算法根据请求的⽬标IP地址出该⽬标IP地址最近使⽤的
服务器,若该服务器是可⽤的且没有超载,将请求发送到该服务器;若服务器不存在,或者该服务器超载且有服务器处于⼀半的⼯作负载,则⽤“最少链接”
的原则选出⼀个可⽤的服务器,将请求发送到该服务器。
2. 带复制的基于局部性最少链接(Locality-Based Least Connections with Replication)(LBLCR)
“带复制的基于局部性最少链接”调度算法也是针对⽬标IP地址的负载均衡,⽬前主要⽤于Cache集系统。它与LBLC算法的不同之处是它要维护从⼀个⽬标
IP地址到⼀组服务器的映射,⽽LBLC算法维护从⼀个⽬标IP地址到⼀台服务器的映射。该算法根据请求的⽬标IP地址出该⽬标IP地址对应的服务器组,按
“最⼩连接”原则从服务器组中选出⼀台服务器,若服务器没有超载,将请求发送到该服务器;若服务器超载,则按“最⼩连接”原则从这个集中选出⼀台
服务器,将该服务器加⼊到服务器组中,将请求发送到该服务器。同时,当该服务器组有⼀段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复
制的程度。
3. ⽬标地址散列(Destination Hashing)(DH)
“⽬标地址散列”调度算法根据请求的⽬标IP地址,作为散列键(Hash Key)从静态分配的散列表出对应的服务器,若该服务器是可⽤的且未超载,将请求发送到该服务器,否则返回空。
4. 源地址散列(Source Hashing)(SH)
“源地址散列”调度算法根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表出对应的服务器,若该服务器是可⽤的且未超载,将请求发送到该服务器,否则返回空。
5. 最短的期望的延迟(Shortest Expected Delay Scheduling SED)(SED)
基于wlc算法。这个必须举例来说了
ABC三台机器分别权重123 ,连接数也分别是123。那么如果使⽤WLC算法的话⼀个新请求进⼊时它可能会分给ABC中的任意⼀个。使⽤sed算法后会进⾏这样⼀个运算
A(1+1)/1
B(1+2)/2
C(1+3)/3
根据运算结果,把连接交给C。
10.最少队列调度(Never Queue Scheduling NQ)(NQ)
⽆需队列。如果有台 realserver的连接数=0就直接分配过去,不需要在进⾏sed运算
⼆、四种⼯作模式的原理及优缺点
1.NAT模式(VS-NAT)
原理:
就是把客户端发来的数据包的IP头的⽬的地址,在负载均衡器上换成其中⼀台RS的IP地址,并发⾄此RS来处理,RS处理完成后把数据交给经过负载均衡器,负载均衡器再把数据包的原IP地址改为⾃⼰的IP,将⽬的地址改为客户端IP地址即可?期间,⽆论是进来的流量,还是出去的流量,都必须经过负载均衡器
优点:集中的物理服务器可以使⽤任何⽀持TCP/IP操作系统,只有负载均衡器需要⼀个合法的IP地址。
缺点:扩展性有限。当服务器节点(普通PC服务器)增长过多时,负载均衡器将成为整个系统的瓶颈,因为所有的请求包和应答包的流向都经过负载均衡器。当服务器节点过多时,⼤量的数据包都交汇在负载均衡器那,速度就会变慢!
2.IP隧道模式(VS-TUN)
原理:
⾸先要知道,互联⽹上的⼤多Internet服务的请求包很短⼩,⽽应答包通常很⼤。那么隧道模式就是,把客户端发来的数据包,封装⼀个新的IP头标记(仅⽬的IP)发给RS,RS收到后,先把数据包的头解开,还
原数据包,处理后,直接返回给客户端,不需要再经过负载均衡器?注意,由于RS 需要对负载均衡器发过来的数据包进⾏还原,所以说必须⽀持IPTUNNEL协议?所以,在RS的内核中,必须编译⽀持IPTUNNEL这个选项
优点:负载均衡器只负责将请求包分发给后端节点服务器,⽽RS将应答包直接发给⽤户。所以,减少了负载均衡器的⼤量数据流动,负载均衡器不再是系统的瓶颈,就能处理很巨⼤的请求量,这种⽅式,⼀台负载均衡器能够为很多RS进⾏分发。⽽且跑在公⽹上就能进⾏不同地域的分发。
缺点:隧道模式的RS节点需要合法IP,这种⽅式需要所有的服务器⽀持”IP Tunneling”(IP Encapsulation)协议,服务器可能只局限在部分Linux系统上。
3.直接路由模式(VS-DR)
原理:
负载均衡器和RS都使⽤同⼀个IP对外服务?但只有DR对ARP请求进⾏响应,所有RS对本⾝这个IP的ARP请求保持静默?也就是说,⽹关会把对这个服务IP的请求全部定向给DR,⽽DR收到数据包后根据调度算法,出对应的RS,把⽬的MAC地址改为RS的MAC(因为IP⼀致)并将请求分发给这台RS?这时RS收到这个数据包,处理完成之后,由于IP⼀致,可以直接将数据返给客户,则等于直接从客户端收到
这个数据包⽆异,处理后直接返回给客户端?由于负载均衡器要对⼆层包头进⾏改换,所以负载均衡器和RS之间必须在⼀个⼴播域,也可以简单的理解为在同⼀台交换机上
优点:和TUN(隧道模式)⼀样,负载均衡器也只是分发请求,应答包通过单独的路由⽅法返回给客户端。与VS-TUN相⽐,VS-DR这种实现⽅式不需要隧道结构,因此可以使⽤⼤多数操作系统做为物理服务器。
缺点:(不能说缺点,只能说是不⾜)要求负载均衡器的⽹卡必须与物理⽹卡在⼀个物理段上。
4.FULLNAT模式
FULLNAT模式可以解决lvs和rs跨vlan的问题,从此lvs和rs不再存在vlan上的从属关系,可以作到多个lvs对应多个rs,解决⽔平扩容的问题。
FULLNAT在NAT模式上做了如下改进:
在DNAT时,源地址从客户端的ip被替换成了lvs内⽹ip。⽽内⽹ip之间,可以通过多个交换机跨vlan通信。当rs返回经过处理的数据包时,会将这个数据包返回到lvs的内⽹ip上,此时lvs进⾏源地址转换(SNAT),把数据包的⽬的地址从lvs内⽹ip替换为客户端ip。
三、四种模式操作
VS/DR⼯作模式
1.后端服务器⽆arptables策略
调度服务器(VS)的配置
# 配置yum源
[rhel-source]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=172.25.10.250/rhel6.5/
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release
[HighAvailability]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=172.25.10.250/rhel6.5/HighAvailability
服务器地址gpgcheck=0
[LoadBalancer]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=172.25.10.250/rhel6.5/LoadBalancer
gpgcheck=0
[ResilientStorage]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=172.25.10.250/rhel6.5/ResilientStorage
gpgcheck=0
[ScalableFileSystem]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=172.25.10.250/rhel6.5/ScalableFileSystem
gpgcheck=0
gpgcheck=0
# 安装ipvsadm
[root@server1 ~]# yum install ipvsadm -y
# 添加虚拟ip(vip)
[root@server1 ~]# ip addr add 172.25.10.100/24 dev eth0
[root@server1 ~]# ip addr
1:lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2:eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 52:54:00:88:1f:4e brd ff:ff:ff:ff:ff:ff
inet 172.25.10.1/24 brd 172.25.10.255 scope global eth0
inet 172.25.10.100/24 scope global secondary eth0
inet6 fe80::5054:ff:fe88:1f4e/64 scope link
valid_lft forever preferred_lft forever
# 定义集,并设置节点
[root@server1 ~]# ipvsadm -A -t 172.25.10.100:80 -s rr
# 查看策略
[root@server1 ~]# ipvsadm -l
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP172.25.10.100:http rr
# 添加节点
[root@server1 ~]# ipvsadm -a -t 172.25.10.100:80 -r 172.25.10.2:80 -g
[root@server1 ~]# ipvsadm -a -t 172.25.10.100:80 -r 172.25.10.3:80 -g
[root@server1 ~]# ipvsadm -l # 查看策略
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP172.25.10.100:http rr
-> server2:http Route100
-> server3:http Route100
# Forward:路由 Weight:权重 ActiveConn: InActConn:访问次数
# 保存策略到⽂件中
[root@server1 ~]# /etc/init.d/ipvsadm save
ipvsadm:Saving IPVS table to /etc/sysconfig/ipvsadm: [ OK ]
[root@server1 ~]# /etc/init.d/ipvsadm restart
ipvsadm:Clearing the current IPVS table: [ OK ]
ipvsadm:Unloading modules: [ OK ]
ipvsadm:Clearing the current IPVS table: [ OK ]
ipvsadm:Applying IPVS configuration: [ OK ]
后端服务器配置
server2
# 添加vip
[root@server2 ~]# ip addr add 172.25.10.100/32 dev eth0
[root@server2 ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 52:54:00:0a:d5:22 brd ff:ff:ff:ff:ff:ff
inet 172.25.10.2/24 brd 172.25.10.255 scope global eth0
inet 172.25.10.100/32 scope global eth0
inet6 fe80::5054:ff:fe0a:d522/64 scope link
valid_lft forever preferred_lft forever
# 安装http服务,并设置默认发布⽂件
[root@server2 ~]# /etc/init.d/httpd start
Starting httpd: httpd: Could not reliably determine the server's fully qualified domain name, using 172.25.10.2 for ServerName [ OK ]
[root@server2 ~]# cat /var/www/html/index.html
<h1>-server2</h1>
server3
# 添加vip
[root@server3 ~]# ip addr add 172.25.10.100/32 dev eth0
[root@server3 ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 52:54:00:2d:32:ee brd ff:ff:ff:ff:ff:ff
inet 172.25.10.3/24 brd 172.25.10.255 scope global eth0
inet 172.25.10.100/32 scope global eth0
inet6 fe80::5054:ff:fe2d:32ee/64 scope link
valid_lft forever preferred_lft forever
# 安装http服务,并设置默认发布⽂件
[root@server3 ~]# /etc/init.d/httpd start
Starting httpd: httpd: Could not reliably determine the server's fully qualified domain name, using 172.25.10.3 for ServerName [ OK ]
[root@server3 ~]# cat /var/www/html/index.html
<h1></h1>
客户端测试
(MAC地址会变)
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论