概述
(一)项目介绍
实现基于LVS负载均衡集群的电商网站架构
随着业务的发展,网站的访问量越来越大,网站访问量已经从原来的1000QPS,变为3000QPS,网站已经不堪重负,响应缓慢,面对此场景,单纯靠单台LNMP的架构已经无法承载更多的用户访问,此时需要用负载均衡技术,对网站容量进行扩充,来解决承载的问题。scale out? scale up?
1 技术说明
集群(cluster)技术是一种较新的技术,通过集群技术,可以在付出较低成本的情况下获得在性能,可靠性,灵活性方面的相对较高的收益,其任务调度则是集群系统中的核心技术。
集群是一组相互独立的、通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理。一个客户与集群相互作用时,集群像是一个独立的服务器。
集群组成后,可以利用多个计算机和组合进行海量请求处理(负载均衡),从而获得很高的处理效率,也可以用多个计算机做备份(高可用),使得任何一个机器坏了整个系统还是能正常运行。集群在目前互联网公司是必备的技术,极大提高互联网业务的可用性和可缩放性。
2 负载均衡技术
负载均衡(Load Balance)负载均衡集群为企业需求提供了可解决容量问题的有效方案。负载均衡集群使负载可以在计算机集群中尽可能平均地分摊处理。
负载通常包括应用程序处理负载和网络流量负载。这样的系统非常适合向使用同一组应用程序的大量用户提供服务。每个节点都可以承担一定的处理负载,并且可以实现处理负载在节点之间的动态分配,以实现负载均衡。对于网络流量负载,当网络服务程序接受了高入网流量,以致无法迅速处理,这时,网络流量就会发送给在其它节点上运行的网络服务程序。也可根据服务器的承载能力,进行服务请求的分发,从而使用户的请求得到更快速的处理。
3负载均衡集群技术实现
负载均衡(Load Balance)
负载均衡技术类型:基于4层负载均衡技术和基于7层负载均衡技术
负载均衡实现方式:硬件负载均衡设备或者软件负载均衡
硬件负载均衡产品:F5 BIG-IP 、Citrix Netscaler 、深信服 、Array 、Radware
软件负载均衡产品: LVS(Linux Virtual Server)、 Haproxy、Nginx、Ats(apache traffic server)
4 负载均衡技术演示图
4.1 OSI(开放系统互联)7层模型
4.2 TCP/IP四.七层模型
更生动形象详的介绍TCP/IP四.七层模型:
物理层:路基,桥梁
链路层:铁轨,道岔,信号系统
网络层:火车网点,运输中心,调度中心
应用层:物流公司,快递公司,12306
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~`~~~~~~~~~~~~~~~
(二) 负载均衡集群企业级应用实战-LVS
-
LVS软件作用:通过LVS提供的负载均衡技术和Linux操作系统实现一个高性能、高可用的服务器群集,它具有良好可靠性、可扩展性和可操作性。从而以低廉的成本实现最优的服务性能。
-
LVS的特性
高并发连接性:LVS基于内核网络层面工作,有超强的承载能力和并发处理能力。单台LVS负载均衡器,可支持上万并发连接。
稳定性:是工作在网络层4层之上作分发之用,这个特点也决定了它在负载均衡软件里的性能最强,稳定性最好,对cpu和内存资源占用极低。
成本低廉:硬件负载均衡器少则十几万,多则几十万上百万,LVS只需一台服务器和就能免费部署使用,性价比极高。
配置简单:LVS配置非常简单,仅需几行命令即可完成配置,也可写成脚本进行管理。
支持多种算法:支持多种论调算法,可根据业务场景灵活调配进行使用
支持多种工作模型:可根据业务场景,使用不同的工作模式来解决生产环境请求处理问题。
应用范围广:因为LVS工作在4层,所以它几乎可以对所有应用做负载均衡,包括http、数据库、DNS、ftp服务等等
缺点:工作在4层,不支持7层规则修改,机制过于庞大,不适合小规模应用。
3 .LVS工作流程图
4 LVS核心组件和专业术语
LVS的管理工具和内核模块ipvsadm/ipvs
Ipvsadm:用户空间的命令行工具,用于管理集群服务及集群服务上的RS等。
Ipvs:工作于内核上的netfilter INPUT钩子之上的程序,可根据用户定义的集群实现请求转发;
VS:Virtual Server #虚拟服务
Director, Balancer #负载均衡器、分发器
RS:Real Server #后端请求处理服务器
CIP: Client IP #用户端IP
Director Virtual IP: VIP #负载均衡器虚拟IP
Director IP: DIP #负载均衡器IP
Real Server IP: RIP #后端请求处理服务器IP
5 LVS工作内核模式
1 当客户端的请求到达负载均衡器的内核空间时,首先会到达PREOUTING链。
2当内核发现请求包的目的地市本机时,将数据包发送给INPUT链。
3 LVS由用户空间的ipvsadm和内核空间的ipvs组成,Ipvsadm用来定义规则,ipvs利用ipvsadm定义的规则工作,ipvs工作在input链上,
当数据包到达INPUT链上,首先会被ipvs检查,如果数据包里面的目的地址及端口没有在规则里面,那么这条数据包将被放行至用户空间。
4如果数据包里面的目的地址及端口在规则里面,那么这条数据报文将被修改目的地址为事先定义好的后端服务器,并送往POSTROUTING链。
5最后经由POSTROUTING链发往后端服务器。
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
(三) LVS负载均衡四种模型详解及调度算法
1 virtual server via NAT(net adress translation)工作模式
类似于DNAT,但支持多目标转发,通过修改请求报文的目标地址,根据调度算法所挑选出来的某个RS的RIP来进行转发;
架构特性:
-
RS应该使用私有地址,各RS的网关必须指向DIP;
-
请求和响应报文报文都经由director转发,高负载场景中,director可能成为瓶颈。
-
支持端口映射;
-
RS可以使用任意OS;
-
RS的RIP必须与director的DIP在同一个网络;
(6)LVS负载均衡NAT工作流程
(a). 当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP
(b). PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链
(c). IPVS比对数据包请求的服务是否为集群服务,若是,修改数据包的目标IP地址为后端服务器IP,然后将数据包发至POSTROUTING链。 此时报文的源IP为CIP,目标IP为RIP
(d). POSTROUTING链通过选路,将数据包发送给Real Server
(e). Real Server比对发现目标为自己的IP,开始构建响应报文发回给Director Server。 此时报文的源IP为RIP,目标IP为CIP
(f). Director Server在响应客户端前,此时会将源IP地址修改为自己的VIP地址,然后响应给客户端。 此时报文的源IP为VIP,目标IP为CIP
2 LVS负载均衡DR工作模式
Lvs-dr(direct route)
Director在实现转发时不修改请求的IP首部,而是通过直接封装MAC首部完成转发;目标MAC是director根据调度算法挑选出的某个RS的MAC地址,注意,RS也有同Director一样的VIP.
架构特点:
-
通过静态绑定或内核参数修改或arptables规则实现只有Director上的VIP响应服务请求,RS上的VIP拒绝响应服务请求;(下面部署的时候会说明)
-
RS上的RIP可以是私有地址,也可以是公网地址,如果使用公网地址,此时可以通过互联网对RIP进行直接访问。
-
各RIP必须与DIP在同一个物理网络中;
-
所有的请求报文经由Director Server,但响应报文必须不能进过Director Server;
-
不支持地址转换,不支持端口映射;
-
RS可以使用大多数的OS(操作系统);
-
RS的网关一定不能指向director;
-
RS上的lo接口配置VIP的IP地址;
(a) 当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP
(b) PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链
(c) IPVS比对数据包请求的服务是否为集群服务,若是,将请求报文中的源MAC地址修改为DIP的MAC地址,将目标MAC地址修改RIP的MAC地址,然后将数据包发至POSTROUTING链。 此时的源IP和目的IP均未修改,仅修改了源MAC地址为DIP的MAC地址,目标MAC地址为RIP的MAC地址
(d) 由于DS和RS在同一个网络中,所以是通过二层来传输。POSTROUTING链检查目标MAC地址为RIP的MAC地址,那么此时数据包将会发至Real Server。
(e) RS发现请求报文的MAC地址是自己的MAC地址,就接收此报文。处理完成之后,将响应报文通过lo接口传送给eth0网卡然后向外发出。 此时的源IP地址为VIP,目标IP为CIP
(f) 响应报文最终送达至客户端
-
3 lvs-tun(Tunnel transmission)
隧道传输ip:不修改请求报文ip首部,而是通过ip隧道机制在原有的ip报文之外在封装ip首部,经由互联网把请求报文交给选定的RS;
架构特性:;
(1)RIP,DIP,VIP都是公网地址;
(2)RS的网关不能指向DIP;
(3)请求报文由directory分发,但响应报文由RS响应给client
(4)不支持端口映射;
(5)RS的OS(操作系统)必须支持ip隧道,现在只有linux系统支持;
1.客户端将请求发往前端的负载均衡器,请求报文源地址是CIP,目标地址为VIP。
2.负载均衡器收到报文后,发现请求的是在规则里面存在的地址,那么它将在客户端请求报文的首部再封装一层IP报文,将源地址改为DIP,目标地址改为RIP,并将此包发送给RS。
3.RS收到请求报文后,会首先拆开第一层封装,然后发现里面还有一层IP首部的目标地址是自己lo接口上的VIP,所以会处理次请求报文,并将响应报文通过lo接口送给eth0网卡直接发送给客户端。
注意:需要设置lo接口的VIP不能在共网上出现。
4 lvs-fullnat(双向转换)
通过请求报文的源地址为为DIP,目标地址为RIPl来实现转发:对于响应报文而言。修改源地址为VIP,目标地址为CIP来实现转发。
-
架构特点:这是一种对nat模型的改进,是一个扩展,使得RS与director可以处于不同的网络。
-
RIP,DIP可以使用私有地址。
-
RIP,DIP可以不在同一个网络。且RIP的网关未必需要指向DIP
-
支持端口映射;
-
RS的OS模型可以使用任意类型;
-
请求报文经由director,响应报文也经由director;
-
-
lvs负载均衡常见的工作模式总结
lvs-nat与lvs-fullnat:请求和响应报文都经由Director
lvs-nat:RIP的网关要指向DIP
lvs-fullnat:RIP和DIP未必在同一IP网络,但要能通信
lvs-dr与lvs-tun:请求报文要经由Director,但响应报文由RS直接发往Client
lvs-dr:通过封装新的MAC首部实现,通过MAC网络转发
lvs-tun:通过在原IP报文外封装新IP头实现转发,支持远距离通信
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
(四) LVS负载均衡调度算法
(静态)
1.RR:轮叫调度(Round Robin)
调度器通过"轮叫"调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。
2.WRR:加权轮叫(Weight RR)
调度器通过"加权轮叫"调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
3.DH:目标地址散列调度(Destination Hash )
根据请求的目标IP地址,作为散列键(HashKey)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
4.SH:源地址 hash(Source Hash)
源地址散列"调度算法根据请求的源IP地址,作为散列键(HashKey)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
(动态)
1.LC:最少链接(Least Connections)
调度器通过"最少连接"调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用"最小连接"调度算法可以较好地均衡负载。
2.WLC:加权最少连接(默认采用的就是这种)(Weighted Least Connections)
在集群系统中的服务器性能差异较大的情况下,调度器采用"加权最少链接"调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
3.SED:最短延迟调度(Shortest Expected Delay )
在WLC基础上改进,Overhead = (ACTIVE+1)*256/加权,不再考虑非活动状态,把当前处于活动状态的数目+1来实现,数目最小的,接受下次请求,+1的目的是为了考虑加权的时候,非活动连接过多缺陷:当权限过大的时候,会倒置空闲服务器一直处于无连接状态。
4.NQ永不排队/最少队列调度(Never Queue Scheduling NQ)
无需队列。如果有台 realserver的连接数=0就直接分配过去,不需要再进行sed运算,保证不会有一个主机很空间。在SED基础上无论+几,第二次一定给下一个,保证不会有一个主机不会很空闲着,不考虑非活动连接,才用NQ,SED要考虑活动状态连接,对于DNS的UDP不需要考虑非活动连接,而httpd的处于保持状态的服务就需要考虑非活动连接给服务器的压力。
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~`
(五) LVS软件包组成
1 ipvsadm
程序包:ipvsadm(LVS管理工具)
主程序:/usr/sbin/ipvsadm
规则保存工具:/usr/sbin/ipvsadm-save
规则重载工具:/usr/sbin/ipvsadm-restore
配置文件:/etc/sysconfig/ipvsadm-config
2 查看内核是否支持IPVS
grep -i -C 10 "ipvs" /boot/config-VERSION-RELEASE.x86_64
3 LVS安装方法
LVS 常用的两种方法。Yum 安装和源码安装
yum 安装:通常是在线安装,好处是安装方式简单,不易出错;常用的安装yum源为epel(推荐,因为管理工具没有太多定制型)
源码包安装:是先将ipvsadm的源码下载下来,在自己的系统里编译生成可执行文件,然后执行。
4 LVS命令使用
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
-A --add-service 在服务器列表中新添加一条新的虚拟服务器记录
-t 表示为tcp
-s –scheduler 使用的调度算法,rr | wrr | lc | wlc | lblb | lblcr | dh | sh | sed | nq 默认调度算法是 wlc
Ipvsadm –A -t 192.168.150.136 –s wlc
-a –add-server 在服务器上添加一条新的真实主机记录
-t --tcp-service 说明虚拟机提供tcp服务
-u --udp-service 说明虚拟机提供UDP服务
-m --masquerading 指定LVS工作模式为NAT模式
-w --weight 真实服务器的权值
-g --gatewaying 指定LVS工作模式为直接路由器模式(也是LVS默认的模式)
-i --ip 指定LVS的工作模式为隧道模式
-p 会话保持时间,定义流量被转到同一个realserver的会话存留时间
Ipvsadm –a –t 192.168.150.136 -r 192.168.150.137 –m –w 1
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~`
-E –edit-service 编辑内核虚拟服务器表中的一条虚拟服务器记录。
-D –delete-service 删除内核虚拟服务器表中的一条虚拟服务器记录。
-C –clear 清除内核虚拟服务器表中的所有记录。
-R –restore 恢复虚拟服务器规则
-S –save 保存虚拟服务器规则,输出为-R 选项可读的格式
-e –edit-server 编辑一条虚拟服务器记录中的某条真实服务器记录
-d –delete-server 删除一条虚拟服务器记录中的某条真实服务器记录
-L|-l –list 显示内核虚拟服务器表
--numeric, -n:以数字形式输出地址和端口号
--exact:扩展信息,精确值
--connection,-c:当前IPVS连接输出
--stats:统计信息
--rate :输出速率信息
参数也可以从/proc/net/ip_vs*映射文件中查看
-Z –zero 虚拟服务表计数器清零(清空当前的连接数量等)
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
LVS命令使用举例
ipvsadm -A|E -t|u|f virutal-service-address:port [-s scheduler] [-p [timeout]] [-M netmask]
修改vip为192.168.150.136的LVS中的http服务的调度算法为RR
Ipvsadm –E -t 192.168.150.136 –s rr
ipvsadm -D -t|u|f virtual-service-address
删除vip为192.168.150.136的service
Ipvsadm -D -t 192.168.150.136:80
ipvsadm -a|e -t|u|f service-address:port -r real-server-address:port [-g|i|m] [-w weight]
修改RS权重为3
Ipvsadm -e –t 192.168.150.136 –r 192.168.150.137 -g -w 3
ipvsadm -d -t|u|f service-address -r server-address
删除一个RS
Ipvsadm –d –t 192.168.150.136:80 -r 192.168.150.137:80
ipvsadm -L|l [options]
ipvsadm -Z [-t|u|f service-address]
ipvsadm -C
ipvsadm -R
ipvsadm -S [-n]
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
LVS规则保存和加载
保存:建议保存至/etc/sysconfig/ipvsadm
Ipvsadm-save > /path/to/ipvsadm_file
Ipvsadm –s > /path/to/ipvsadm_file
Systemctl stop ipvsadm.service
重载:
Ipvsadm -restore < /path/from/ipvsadm_file
Ipvsadm –R < /PATH/IPVSADM_FILE
Systemctl restart ipvsadm.service
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
(六)负载均衡集群企业级应用实战-LVS(nat模式,DR模式)
实战架构图
在之前完成的基于LNMP电子商务网站基础上,扩展2台服务器,要求分别使用LVS的DR模型和NAT模型实现负载均衡,并用压测工具观察承载量是否提升。
LVS-nat模式
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
一环境准备
一台centos系统做DR,二台实现过基于LNMP的电子商务网站
二安装步骤
1 yum install ipvsadm –y #在LVS-server安装lvs管理软件
2 grep -i -C 10 "ipvs" /boot/config-VERSION-RELEASE.x86_64,#查看内核是否支持ipvs模块
3 iptables –F && setenforing 清空防火墙,关闭selinux
三 配置基于NAT模式的LVS负载均衡集群;
Lvs-server配置:
1 开启一个基于80端口的虚拟服务器,调度方式为wrr
ipvsadm –A -t 172.17.254.99:80 -s wrr
2 配置web服务器(rs01)后端real server 为nat工作方式 权重为1
Ipvsadm –a –t 172.17.254.99:80 -r 192.168.150.135:80 –m –w 1
3配置web服务器(rs02)后端real server 为nat工作方式 权重为1
Ipvsadm –a –t 172.17.254.99 –r 192.168.150.137:80 –m -w 1
4 修改内和配置,开启路由转发
Vim /etc/sysctl.conf
修改net.ipv4.ip_forward=1
Sysctl –p 使其生效
-
real server 配置(配置网关指向192.168.150.136 开启web,php-fpm,mysql服务)
在rs01(后端web服务器)上配置网关,指向vs(负载均衡器的DIP)
route add default gw 192.168.150.136或者 ip route add default via 192.168.150.136
在rso2(后端web服务器)上配置网关,指向vs(负载均衡器的DIP)
route add default gw 192.168.150.136 或者 ip route add default via 192.168.150.136
四 LVS集群部署和验证
1可分别在rs01和rs02上建立两个不同的内容,统一路径的test.html测试文件,测试负载均衡功能
2 打开http:172.17.254.99/index.php, 并在director上用ipvsadm –L –n 观察访问连接
测试成功!!!
3用另外一条测试机,用ab压力测试工具,测试经过负载均衡后的服务器容量
LVS-DR模式
一 环境准备
一台centos系统做DR,二台实现过基于LNMP的电子商务网站
二 安装步骤
1 在lvs-server安装LVS管理软件
Yum install ipvsadm -y
2 查看内核是否支持ipvs模块
grep -i -C 10 "ipvs" /boot/config-VERSION-RELEASE.x86_6
3 清空防火墙,关闭selinux
iptables –F && setenforoing
三 配置基于DR模式的LVS负载均衡集群:
lvs-server 配置:
1配置vip到本地网卡别名
#配置VIP到本地网卡eth0:0上,并只广播自己
ifconfig ens33:0 172.17.254.99 broadcast 172.17.254.99 netmask 255.255.255.255 up
#配置VIP路由
Route add -host 172.17.254.99 dev ens33:0
2 开启一个基于80端口的虚拟服务,调度算法为wrr
Ipvsadm -A -t 172.17.254.99:80 -s wrr
3 配置web(rs01)服务后端real server 为DR工作方式 权重为1
Ipvsadm -a –t 172.17.254.99:80 -r 172.17.253.216:80 -g -w 1
4配置web(rs02)服务后端real server 为DR工作方式 权重为1
Ipvsadm –a –t 172.17.254.99 –r 172.17.127.177 -g –w 1
5 修改内核配置,开启路由转发
#vim /etc/sysctl.conf 修改 net.ipv4.ip_forward=1
#sysctl -p 使其生效
6 real server 配置
#配置VIP到本地回环网卡lo上,并只广播自己
Ifconfig lo:o 172.17.254.99 broadcast 172.17.254.99 netmask 255.255.255.255 up
#配置本地回环网卡路由
Route add -host 172.17.254.99 lo:o
1 只回答目标IP地址是来访问网络接口本地地址的ARP查询
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
2 对查询目标使用最适当的本地地址,在此模式下将忽略这个IP数据包的源地址并尝试选择与能与该地址通信的本地地址.
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
3 #关闭arp应答
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
1: 仅在请求的目标IP配置在本地主机的接收到请求报文的接口上时,才给予响应
2:必须避免将接口信息向非本网络进行通告
开启web、php-fpm、mysql服务
四、LVS集群部署和效果验证
1、可分别在rs1和rs2建立2个不同内容,统一路径的test.html测试文件,测试负载均衡功能
2、打开http://VIP/index.php ,并在director上用ipvsadm -L -n观察访问连接
3、用另外一台测试机,用ab压力测试工具,测试经过负载均衡后的服务器容量
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
(七) 实现LVS持久连接
需求背景:由于HTTP是一种无状态协议,每次请求完毕之后就立即断开了,当用户浏览购物网站挑选商品的时候,看到一件商品加入购物车,此过程被重定向到了REALSERVER1上面来,当把第二件商品加入购物车又被重定向到了REALSERVER2上面,最后结账的时候在REALSERVER2上面,只有一件商品,这显然是用户无法接受的,此时就需要一种持久连接机制,来把同一用户的HTTP请求在超时时间内都重定向到同一台REALSERVER,超时时间可以自己定义,比如说2个小时,在超时时间内服务器会不断追踪用户的访问请求,把某一用户的所有请求都转发到同一台REALSERVER上面
对于电子商务网站来说,用户在挑选商品的时候使用的是80端口来浏览的,当付款的时候则是通过443的ssl加密的方式,当然当用户挑选完商品付款的时候我们当然不希望https的443跳转到另外一台REALSERVER,很显然应该是同一REALSERVER才对,这时候就要用到基于防火墙标记的持久连接,通过定义端口的姻亲关系来实现
功能:无论ipvs使用何种scheduler,其都能够实现在指定时间范围内始终将来自同一个ip地址的请求发往同一个RS;此功能是通过lvs持久连接模板实现,其与调度方法无关;
iptables -t mangle -A PREROUTING -d 172.16.100.100 -p tcp --dport 80 -j MARK --set-mark 99
#在iptables 打上标记,把80端口标记为99
iptables -t mangle -A PREROUTING -d 172.16.100.100-p tcp --dport 443 -j MARK --set-mark 99
#在iptables打上标记,把443端口标记为99
ipvsadm -A -f 99 -s rr -p
#在lvs上建立基于99号标记的虚拟服务
ipvsadm -a -f 99 -r 172.16.100.2 -g
#设置后端服务地址
pvsadm -a -f 99 -r 172.16.100.3 -g
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~·
(八)实现LVS健康状态监测功能
背景:试想,LVS作为前端负载均衡设备,当后端服务器宕机时,LVS还会把用户请求发送到该服务器上,这对用户体验来说是极其糟糕的,因为用户的请求无法得到处理。那么是否有一种机制,能保证后端服务器的是否正常?或者说把用户的请求,只发送到后端正常的服务器上,来保证用户的良好体验呢?这就叫做后端服务健康状态监测。
ldirectord用来实现LVS负载均衡资源在主、备节点间的故障转移。在首次启动时,ldirectord可以自动创建IPVS表。此外,它还可以监控各RealServer的运行状态,一旦发现某RealServer运行异常时,还可以将其从IPVS表中移除。
ldirectord:监控和控制LVS守护进程,可管理LVS规则
软件包名称:ldirectord-3.9.6-0rc1.1.1.x86_64.rpm
软件包组成:
/etc/ha.d/ldirectord.cf 主配置文件
/usr/share/doc/ldirectord-3.9.6/ldirectord.cf 配置模版
/usr/lib/systemd/system/ldirectord.service 服务
/usr/sbin/ldirectord 主程序
/var/log/ldirectord.log 日志
/var/run/ldirectord.ldirectord.pid pid文件
Ldirectord 配置文件详解
checktimeout=3 #超时时间 单位是秒
checkinterval=1 #检查频率
autoreload=yes #此项用来定义ldirectord是否每隔一段时间检查此配置文件是否发生改变并自动重新加载;
logfile="/var/log/ldirectord.log" #日志文件
quiescent=no #down时yes权重为0,no为删除
virtual=172.16.0.1 #指定VS的FWM或IP:port
real=172.16.0.7:80 gate 2
real=172.16.0.8:80 gate 1
fallback=127.0.0.1:80 gate #sorry server
service=http
scheduler=wrr
checktype=negotiate #ldirectord进程用于监控RealServer的方法
checkport=80 #检查端口
request="index.html" #检查页面
receive="Test" #检查内容
最后
以上就是生动荷花为你收集整理的实现基于LVS负载均衡集群的电商网站架构(一)项目介绍(二) 负载均衡集群企业级应用实战-LVS(三) LVS负载均衡四种模型详解及调度算法(四) LVS负载均衡调度算法(五) LVS软件包组成(六)负载均衡集群企业级应用实战-LVS(nat模式,DR模式)(七) 实现LVS持久连接(八)实现LVS健康状态监测功能的全部内容,希望文章能够帮你解决实现基于LVS负载均衡集群的电商网站架构(一)项目介绍(二) 负载均衡集群企业级应用实战-LVS(三) LVS负载均衡四种模型详解及调度算法(四) LVS负载均衡调度算法(五) LVS软件包组成(六)负载均衡集群企业级应用实战-LVS(nat模式,DR模式)(七) 实现LVS持久连接(八)实现LVS健康状态监测功能所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复