我是靠谱客的博主 生动荷花,最近开发中收集的这篇文章主要介绍实现基于LVS负载均衡集群的电商网站架构(一)项目介绍(二) 负载均衡集群企业级应用实战-LVS(三) LVS负载均衡四种模型详解及调度算法(四) LVS负载均衡调度算法(五) LVS软件包组成(六)负载均衡集群企业级应用实战-LVS(nat模式,DR模式)(七) 实现LVS持久连接(八)实现LVS健康状态监测功能,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

(一)项目介绍

实现基于LVS负载均衡集群的电商网站架构

随着业务的发展,网站的访问量越来越大,网站访问量已经从原来的1000QPS,变为3000QPS,网站已经不堪重负,响应缓慢,面对此场景,单纯靠单台LNMP的架构已经无法承载更多的用户访问,此时需要用负载均衡技术,对网站容量进行扩充,来解决承载的问题。scale out? scale up?

1 技术说明

集群(cluster)技术是一种较新的技术,通过集群技术,可以在付出较低成本的情况下获得在性能,可靠性,灵活性方面的相对较高的收益,其任务调度则是集群系统中的核心技术。

集群是一组相互独立的、通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理。一个客户与集群相互作用时,集群像是一个独立的服务器。

集群组成后,可以利用多个计算机和组合进行海量请求处理(负载均衡),从而获得很高的处理效率,也可以用多个计算机做备份(高可用),使得任何一个机器坏了整个系统还是能正常运行。集群在目前互联网公司是必备的技术,极大提高互联网业务的可用性和可缩放性。

2 负载均衡技术

负载均衡(Load Balance)负载均衡集群为企业需求提供了可解决容量问题的有效方案。负载均衡集群使负载可以在计算机集群中尽可能平均地分摊处理。

负载通常包括应用程序处理负载和网络流量负载。这样的系统非常适合向使用同一组应用程序的大量用户提供服务。每个节点都可以承担一定的处理负载,并且可以实现处理负载在节点之间的动态分配,以实现负载均衡。对于网络流量负载,当网络服务程序接受了高入网流量,以致无法迅速处理,这时,网络流量就会发送给在其它节点上运行的网络服务程序。也可根据服务器的承载能力,进行服务请求的分发,从而使用户的请求得到更快速的处理。

3负载均衡集群技术实现

负载均衡(Load Balance)

负载均衡技术类型:基于4层负载均衡技术和基于7层负载均衡技术

负载均衡实现方式:硬件负载均衡设备或者软件负载均衡

硬件负载均衡产品:F5 BIG-IP 、Citrix Netscaler 、深信服 、Array 、Radware

软件负载均衡产品: LVS(Linux Virtual Server)、 Haproxy、Nginx、Ats(apache traffic server)

4 负载均衡技术演示图

4.1 OSI(开放系统互联)7层模型

4.2 TCP/IP四.七层模型

更生动形象详的介绍TCP/IP四.七层模型:

物理层:路基,桥梁

链路层:铁轨,道岔,信号系统

网络层:火车网点,运输中心,调度中心

应用层:物流公司,快递公司,12306

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~`~~~~~~~~~~~~~~~

(二) 负载均衡集群企业级应用实战-LVS

  1. LVS软件作用:通过LVS提供的负载均衡技术和Linux操作系统实现一个高性能、高可用的服务器群集,它具有良好可靠性、可扩展性和可操作性。从而以低廉的成本实现最优的服务性能。

  2. LVS的特性

    高并发连接性:LVS基于内核网络层面工作,有超强的承载能力和并发处理能力。单台LVS负载均衡器,可支持上万并发连接。

    稳定性:是工作在网络层4层之上作分发之用,这个特点也决定了它在负载均衡软件里的性能最强,稳定性最好,对cpu和内存资源占用极低。

    成本低廉:硬件负载均衡器少则十几万,多则几十万上百万,LVS只需一台服务器和就能免费部署使用,性价比极高。

配置简单:LVS配置非常简单,仅需几行命令即可完成配置,也可写成脚本进行管理。

支持多种算法:支持多种论调算法,可根据业务场景灵活调配进行使用

支持多种工作模型:可根据业务场景,使用不同的工作模式来解决生产环境请求处理问题。

应用范围广:因为LVS工作在4层,所以它几乎可以对所有应用做负载均衡,包括http、数据库、DNS、ftp服务等等

缺点:工作在4层,不支持7层规则修改,机制过于庞大,不适合小规模应用。

     3 .LVS工作流程图

   4 LVS核心组件和专业术语

LVS的管理工具和内核模块ipvsadm/ipvs

Ipvsadm:用户空间的命令行工具,用于管理集群服务及集群服务上的RS等。

Ipvs:工作于内核上的netfilter INPUT钩子之上的程序,可根据用户定义的集群实现请求转发;

VS:Virtual Server #虚拟服务

Director, Balancer #负载均衡器、分发器

RS:Real Server #后端请求处理服务器        

CIP: Client IP #用户端IP

Director Virtual IP: VIP #负载均衡器虚拟IP

Director IP: DIP #负载均衡器IP

Real Server IP: RIP #后端请求处理服务器IP

5 LVS工作内核模式

1 当客户端的请求到达负载均衡器的内核空间时,首先会到达PREOUTING链。

2当内核发现请求包的目的地市本机时,将数据包发送给INPUT链。

3 LVS由用户空间的ipvsadm和内核空间的ipvs组成,Ipvsadm用来定义规则,ipvs利用ipvsadm定义的规则工作,ipvs工作在input链上,

当数据包到达INPUT链上,首先会被ipvs检查,如果数据包里面的目的地址及端口没有在规则里面,那么这条数据包将被放行至用户空间。

4如果数据包里面的目的地址及端口在规则里面,那么这条数据报文将被修改目的地址为事先定义好的后端服务器,并送往POSTROUTING链。

5最后经由POSTROUTING链发往后端服务器。

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

(三) LVS负载均衡四种模型详解及调度算法

1 virtual server via NAT(net adress translation)工作模式

类似于DNAT,但支持多目标转发,通过修改请求报文的目标地址,根据调度算法所挑选出来的某个RS的RIP来进行转发;

架构特性:

  1. RS应该使用私有地址,各RS的网关必须指向DIP;
  2. 请求和响应报文报文都经由director转发,高负载场景中,director可能成为瓶颈。
  3. 支持端口映射;
  4. RS可以使用任意OS;
  5. RS的RIP必须与director的DIP在同一个网络;

    (6)LVS负载均衡NAT工作流程

    (a). 当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP

    (b). PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链

    (c). IPVS比对数据包请求的服务是否为集群服务,若是,修改数据包的目标IP地址为后端服务器IP,然后将数据包发至POSTROUTING链。 此时报文的源IP为CIP,目标IP为RIP

    (d). POSTROUTING链通过选路,将数据包发送给Real Server

    (e). Real Server比对发现目标为自己的IP,开始构建响应报文发回给Director Server。 此时报文的源IP为RIP,目标IP为CIP

    (f). Director Server在响应客户端前,此时会将源IP地址修改为自己的VIP地址,然后响应给客户端。 此时报文的源IP为VIP,目标IP为CIP

    2 LVS负载均衡DR工作模式

    Lvs-dr(direct route)

    Director在实现转发时不修改请求的IP首部,而是通过直接封装MAC首部完成转发;目标MAC是director根据调度算法挑选出的某个RS的MAC地址,注意,RS也有同Director一样的VIP.

    架构特点:

    1. 通过静态绑定或内核参数修改或arptables规则实现只有Director上的VIP响应服务请求,RS上的VIP拒绝响应服务请求;(下面部署的时候会说明)
    2. RS上的RIP可以是私有地址,也可以是公网地址,如果使用公网地址,此时可以通过互联网对RIP进行直接访问。
    3. 各RIP必须与DIP在同一个物理网络中;
    4. 所有的请求报文经由Director Server,但响应报文必须不能进过Director Server;
    5. 不支持地址转换,不支持端口映射;
    6. RS可以使用大多数的OS(操作系统);
    7. RS的网关一定不能指向director;
    8. RS上的lo接口配置VIP的IP地址;

     

    (a) 当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP

    (b) PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链

    (c) IPVS比对数据包请求的服务是否为集群服务,若是,将请求报文中的源MAC地址修改为DIP的MAC地址,将目标MAC地址修改RIP的MAC地址,然后将数据包发至POSTROUTING链。 此时的源IP和目的IP均未修改,仅修改了源MAC地址为DIP的MAC地址,目标MAC地址为RIP的MAC地址

    (d) 由于DS和RS在同一个网络中,所以是通过二层来传输。POSTROUTING链检查目标MAC地址为RIP的MAC地址,那么此时数据包将会发至Real Server。

    (e) RS发现请求报文的MAC地址是自己的MAC地址,就接收此报文。处理完成之后,将响应报文通过lo接口传送给eth0网卡然后向外发出。 此时的源IP地址为VIP,目标IP为CIP

    (f) 响应报文最终送达至客户端

3 lvs-tun(Tunnel transmission)

 

隧道传输ip:不修改请求报文ip首部,而是通过ip隧道机制在原有的ip报文之外在封装ip首部,经由互联网把请求报文交给选定的RS;

架构特性:;

(1)RIP,DIP,VIP都是公网地址;

(2)RS的网关不能指向DIP;

(3)请求报文由directory分发,但响应报文由RS响应给client

(4)不支持端口映射;

(5)RS的OS(操作系统)必须支持ip隧道,现在只有linux系统支持;

1.客户端将请求发往前端的负载均衡器,请求报文源地址是CIP,目标地址为VIP。

2.负载均衡器收到报文后,发现请求的是在规则里面存在的地址,那么它将在客户端请求报文的首部再封装一层IP报文,将源地址改为DIP,目标地址改为RIP,并将此包发送给RS。

3.RS收到请求报文后,会首先拆开第一层封装,然后发现里面还有一层IP首部的目标地址是自己lo接口上的VIP,所以会处理次请求报文,并将响应报文通过lo接口送给eth0网卡直接发送给客户端。

注意:需要设置lo接口的VIP不能在共网上出现。

    4 lvs-fullnat(双向转换)

    通过请求报文的源地址为为DIP,目标地址为RIPl来实现转发:对于响应报文而言。修改源地址为VIP,目标地址为CIP来实现转发。

  1. 架构特点:这是一种对nat模型的改进,是一个扩展,使得RS与director可以处于不同的网络。

    1. RIP,DIP可以使用私有地址。
    2. RIP,DIP可以不在同一个网络。且RIP的网关未必需要指向DIP
    3. 支持端口映射;
    4. RS的OS模型可以使用任意类型;
    5. 请求报文经由director,响应报文也经由director;

  2. lvs负载均衡常见的工作模式总结

    lvs-nat与lvs-fullnat:请求和响应报文都经由Director

    lvs-nat:RIP的网关要指向DIP

    lvs-fullnat:RIP和DIP未必在同一IP网络,但要能通信

    lvs-dr与lvs-tun:请求报文要经由Director,但响应报文由RS直接发往Client

    lvs-dr:通过封装新的MAC首部实现,通过MAC网络转发

    lvs-tun:通过在原IP报文外封装新IP头实现转发,支持远距离通信

    ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

    (四) LVS负载均衡调度算法

    (静态)

    1.RR:轮叫调度(Round Robin)

      调度器通过"轮叫"调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载

    2.WRR:加权轮叫(Weight RR)

      调度器通过"加权轮叫"调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。

    3.DH:目标地址散列调度(Destination Hash )

      根据请求的目标IP地址,作为散列键(HashKey)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。

    4.SH:源地址 hash(Source Hash)

      源地址散列"调度算法根据请求的源IP地址,作为散列键(HashKey)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空

(动态)

1.LC:最少链接(Least Connections)

  调度器通过"最少连接"调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用"最小连接"调度算法可以较好地均衡负载。

2.WLC:加权最少连接(默认采用的就是这种)(Weighted Least Connections)

  在集群系统中的服务器性能差异较大的情况下,调度器采用"加权最少链接"调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。

3.SED:最短延迟调度(Shortest Expected Delay )

  在WLC基础上改进,Overhead = (ACTIVE+1)*256/加权,不再考虑非活动状态,把当前处于活动状态的数目+1来实现,数目最小的,接受下次请求,+1的目的是为了考虑加权的时候,非活动连接过多缺陷:当权限过大的时候,会倒置空闲服务器一直处于无连接状态。

4.NQ永不排队/最少队列调度(Never Queue Scheduling NQ)

  无需队列。如果有台 realserver的连接数=0就直接分配过去,不需要再进行sed运算,保证不会有一个主机很空间。在SED基础上无论+几,第二次一定给下一个,保证不会有一个主机不会很空闲着,不考虑非活动连接,才用NQ,SED要考虑活动状态连接,对于DNS的UDP不需要考虑非活动连接,而httpd的处于保持状态的服务就需要考虑非活动连接给服务器的压力。

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~`

(五) LVS软件包组成

1 ipvsadm

程序包:ipvsadm(LVS管理工具)

主程序:/usr/sbin/ipvsadm

规则保存工具:/usr/sbin/ipvsadm-save

规则重载工具:/usr/sbin/ipvsadm-restore

配置文件:/etc/sysconfig/ipvsadm-config

2 查看内核是否支持IPVS

grep -i -C 10 "ipvs" /boot/config-VERSION-RELEASE.x86_64

3 LVS安装方法

LVS 常用的两种方法。Yum 安装和源码安装

yum 安装:通常是在线安装,好处是安装方式简单,不易出错;常用的安装yum源为epel(推荐,因为管理工具没有太多定制型)

源码包安装:是先将ipvsadm的源码下载下来,在自己的系统里编译生成可执行文件,然后执行。

4 LVS命令使用

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

-A --add-service 在服务器列表中新添加一条新的虚拟服务器记录

-t 表示为tcp

-s –scheduler 使用的调度算法,rr | wrr | lc | wlc | lblb | lblcr | dh | sh | sed | nq 默认调度算法是 wlc

Ipvsadm –A -t 192.168.150.136 –s wlc

-a –add-server 在服务器上添加一条新的真实主机记录

-t --tcp-service 说明虚拟机提供tcp服务

-u --udp-service 说明虚拟机提供UDP服务

-m --masquerading 指定LVS工作模式为NAT模式

-w --weight 真实服务器的权值

-g --gatewaying 指定LVS工作模式为直接路由器模式(也是LVS默认的模式)

-i --ip 指定LVS的工作模式为隧道模式

-p 会话保持时间,定义流量被转到同一个realserver的会话存留时间

Ipvsadm –a –t 192.168.150.136 -r 192.168.150.137 –m –w 1

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~`

-E –edit-service 编辑内核虚拟服务器表中的一条虚拟服务器记录。

-D –delete-service 删除内核虚拟服务器表中的一条虚拟服务器记录。

-C –clear 清除内核虚拟服务器表中的所有记录。

-R –restore 恢复虚拟服务器规则

-S –save 保存虚拟服务器规则,输出为-R 选项可读的格式

-e –edit-server 编辑一条虚拟服务器记录中的某条真实服务器记录

-d –delete-server 删除一条虚拟服务器记录中的某条真实服务器记录

-L|-l –list 显示内核虚拟服务器表

        --numeric, -n:以数字形式输出地址和端口号

        --exact:扩展信息,精确值        

        --connection,-c:当前IPVS连接输出

        --stats:统计信息

        --rate :输出速率信息

参数也可以从/proc/net/ip_vs*映射文件中查看

-Z –zero 虚拟服务表计数器清零(清空当前的连接数量等)

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

LVS命令使用举例

ipvsadm -A|E -t|u|f virutal-service-address:port [-s scheduler] [-p [timeout]] [-M netmask]

修改vip为192.168.150.136的LVS中的http服务的调度算法为RR

Ipvsadm –E -t 192.168.150.136 –s rr

ipvsadm -D -t|u|f virtual-service-address

删除vip为192.168.150.136的service

Ipvsadm -D -t 192.168.150.136:80

ipvsadm -a|e -t|u|f service-address:port -r real-server-address:port [-g|i|m] [-w weight]

修改RS权重为3

Ipvsadm -e –t 192.168.150.136 –r 192.168.150.137 -g -w 3

ipvsadm -d -t|u|f service-address -r server-address

删除一个RS

Ipvsadm –d –t 192.168.150.136:80 -r 192.168.150.137:80

ipvsadm -L|l [options]

ipvsadm -Z [-t|u|f service-address]

ipvsadm -C

ipvsadm -R

ipvsadm -S [-n]

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

LVS规则保存和加载

保存:建议保存至/etc/sysconfig/ipvsadm

Ipvsadm-save > /path/to/ipvsadm_file

Ipvsadm –s > /path/to/ipvsadm_file

Systemctl stop ipvsadm.service

重载:

Ipvsadm -restore < /path/from/ipvsadm_file

Ipvsadm –R < /PATH/IPVSADM_FILE

Systemctl restart ipvsadm.service

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

(六)负载均衡集群企业级应用实战-LVS(nat模式,DR模式)

实战架构图

 

在之前完成的基于LNMP电子商务网站基础上,扩展2台服务器,要求分别使用LVS的DR模型和NAT模型实现负载均衡,并用压测工具观察承载量是否提升。

LVS-nat模式

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

一环境准备

一台centos系统做DR,二台实现过基于LNMP的电子商务网站

二安装步骤

1 yum install ipvsadm –y #在LVS-server安装lvs管理软件

2 grep -i -C 10 "ipvs" /boot/config-VERSION-RELEASE.x86_64,#查看内核是否支持ipvs模块

3 iptables –F && setenforing 清空防火墙,关闭selinux

三 配置基于NAT模式的LVS负载均衡集群;

Lvs-server配置:

1 开启一个基于80端口的虚拟服务器,调度方式为wrr

ipvsadm –A -t 172.17.254.99:80 -s wrr

2 配置web服务器(rs01)后端real server 为nat工作方式 权重为1

Ipvsadm –a –t 172.17.254.99:80 -r 192.168.150.135:80 –m –w 1

3配置web服务器(rs02)后端real server 为nat工作方式 权重为1

Ipvsadm –a –t 172.17.254.99 –r 192.168.150.137:80 –m -w 1

4 修改内和配置,开启路由转发

Vim /etc/sysctl.conf

修改net.ipv4.ip_forward=1

Sysctl –p 使其生效

  1. real server 配置(配置网关指向192.168.150.136 开启web,php-fpm,mysql服务)

    在rs01(后端web服务器)上配置网关,指向vs(负载均衡器的DIP)

    route add default gw 192.168.150.136或者 ip route add default via 192.168.150.136

     

    在rso2(后端web服务器)上配置网关,指向vs(负载均衡器的DIP)

    route add default gw 192.168.150.136 或者 ip route add default via 192.168.150.136

 

四 LVS集群部署和验证

1可分别在rs01和rs02上建立两个不同的内容,统一路径的test.html测试文件,测试负载均衡功能

2 打开http:172.17.254.99/index.php, 并在director上用ipvsadm –L –n 观察访问连接

 

测试成功!!!

3用另外一条测试机,用ab压力测试工具,测试经过负载均衡后的服务器容量

 

LVS-DR模式

一 环境准备

一台centos系统做DR,二台实现过基于LNMP的电子商务网站

二 安装步骤

1 在lvs-server安装LVS管理软件

Yum install ipvsadm -y

2 查看内核是否支持ipvs模块

grep -i -C 10 "ipvs" /boot/config-VERSION-RELEASE.x86_6

3 清空防火墙,关闭selinux

iptables –F && setenforoing

三 配置基于DR模式的LVS负载均衡集群:

lvs-server 配置:

1配置vip到本地网卡别名

#配置VIP到本地网卡eth0:0上,并只广播自己

ifconfig ens33:0 172.17.254.99 broadcast 172.17.254.99 netmask 255.255.255.255 up

#配置VIP路由

Route add -host 172.17.254.99 dev ens33:0

2 开启一个基于80端口的虚拟服务,调度算法为wrr

Ipvsadm -A -t 172.17.254.99:80 -s wrr

3 配置web(rs01)服务后端real server 为DR工作方式 权重为1

Ipvsadm -a –t 172.17.254.99:80 -r 172.17.253.216:80 -g -w 1

4配置web(rs02)服务后端real server 为DR工作方式 权重为1

Ipvsadm –a –t 172.17.254.99 –r 172.17.127.177 -g –w 1

5 修改内核配置,开启路由转发

#vim /etc/sysctl.conf 修改 net.ipv4.ip_forward=1

#sysctl -p 使其生效

6 real server 配置

#配置VIP到本地回环网卡lo上,并只广播自己

Ifconfig lo:o 172.17.254.99 broadcast 172.17.254.99 netmask 255.255.255.255 up

#配置本地回环网卡路由

Route add -host 172.17.254.99 lo:o

1 只回答目标IP地址是来访问网络接口本地地址的ARP查询

echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore

2 对查询目标使用最适当的本地地址,在此模式下将忽略这个IP数据包的源地址并尝试选择与能与该地址通信的本地地址.

echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce

3 #关闭arp应答

echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore

echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce

1: 仅在请求的目标IP配置在本地主机的接收到请求报文的接口上时,才给予响应

2:必须避免将接口信息向非本网络进行通告

开启web、php-fpm、mysql服务

四、LVS集群部署和效果验证

1、可分别在rs1和rs2建立2个不同内容,统一路径的test.html测试文件,测试负载均衡功能

2、打开http://VIP/index.php ,并在director上用ipvsadm -L -n观察访问连接

3、用另外一台测试机,用ab压力测试工具,测试经过负载均衡后的服务器容量

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

(七) 实现LVS持久连接

需求背景:由于HTTP是一种无状态协议,每次请求完毕之后就立即断开了,当用户浏览购物网站挑选商品的时候,看到一件商品加入购物车,此过程被重定向到了REALSERVER1上面来,当把第二件商品加入购物车又被重定向到了REALSERVER2上面,最后结账的时候在REALSERVER2上面,只有一件商品,这显然是用户无法接受的,此时就需要一种持久连接机制,来把同一用户的HTTP请求在超时时间内都重定向到同一台REALSERVER,超时时间可以自己定义,比如说2个小时,在超时时间内服务器会不断追踪用户的访问请求,把某一用户的所有请求都转发到同一台REALSERVER上面

对于电子商务网站来说,用户在挑选商品的时候使用的是80端口来浏览的,当付款的时候则是通过443的ssl加密的方式,当然当用户挑选完商品付款的时候我们当然不希望https的443跳转到另外一台REALSERVER,很显然应该是同一REALSERVER才对,这时候就要用到基于防火墙标记的持久连接,通过定义端口的姻亲关系来实现

功能:无论ipvs使用何种scheduler,其都能够实现在指定时间范围内始终将来自同一个ip地址的请求发往同一个RS;此功能是通过lvs持久连接模板实现,其与调度方法无关;

iptables -t mangle -A PREROUTING -d 172.16.100.100 -p tcp --dport 80 -j MARK --set-mark 99

#在iptables 打上标记,把80端口标记为99

iptables -t mangle -A PREROUTING -d 172.16.100.100-p tcp --dport 443 -j MARK --set-mark 99

#在iptables打上标记,把443端口标记为99

ipvsadm -A -f 99 -s rr -p

#在lvs上建立基于99号标记的虚拟服务

ipvsadm -a -f 99 -r 172.16.100.2 -g

#设置后端服务地址

pvsadm -a -f 99 -r 172.16.100.3 -g

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~·

(八)实现LVS健康状态监测功能

背景:试想,LVS作为前端负载均衡设备,当后端服务器宕机时,LVS还会把用户请求发送到该服务器上,这对用户体验来说是极其糟糕的,因为用户的请求无法得到处理。那么是否有一种机制,能保证后端服务器的是否正常?或者说把用户的请求,只发送到后端正常的服务器上,来保证用户的良好体验呢?这就叫做后端服务健康状态监测。

ldirectord用来实现LVS负载均衡资源在主、备节点间的故障转移。在首次启动时,ldirectord可以自动创建IPVS表。此外,它还可以监控各RealServer的运行状态,一旦发现某RealServer运行异常时,还可以将其从IPVS表中移除。

ldirectord:监控和控制LVS守护进程,可管理LVS规则

软件包名称:ldirectord-3.9.6-0rc1.1.1.x86_64.rpm

软件包组成:

/etc/ha.d/ldirectord.cf    主配置文件

/usr/share/doc/ldirectord-3.9.6/ldirectord.cf 配置模版

/usr/lib/systemd/system/ldirectord.service 服务

/usr/sbin/ldirectord    主程序

/var/log/ldirectord.log 日志

/var/run/ldirectord.ldirectord.pid pid文件

Ldirectord 配置文件详解

checktimeout=3 #超时时间 单位是秒

checkinterval=1 #检查频率

autoreload=yes #此项用来定义ldirectord是否每隔一段时间检查此配置文件是否发生改变并自动重新加载;

logfile="/var/log/ldirectord.log"     #日志文件

quiescent=no             #down时yes权重为0,no为删除

virtual=172.16.0.1         #指定VS的FWM或IP:port

    real=172.16.0.7:80 gate 2

    real=172.16.0.8:80 gate 1

    fallback=127.0.0.1:80 gate     #sorry server

    service=http

    scheduler=wrr

checktype=negotiate #ldirectord进程用于监控RealServer的方法

checkport=80 #检查端口

request="index.html" #检查页面

receive="Test" #检查内容

 

 

 

 

最后

以上就是生动荷花为你收集整理的实现基于LVS负载均衡集群的电商网站架构(一)项目介绍(二) 负载均衡集群企业级应用实战-LVS(三) LVS负载均衡四种模型详解及调度算法(四) LVS负载均衡调度算法(五) LVS软件包组成(六)负载均衡集群企业级应用实战-LVS(nat模式,DR模式)(七) 实现LVS持久连接(八)实现LVS健康状态监测功能的全部内容,希望文章能够帮你解决实现基于LVS负载均衡集群的电商网站架构(一)项目介绍(二) 负载均衡集群企业级应用实战-LVS(三) LVS负载均衡四种模型详解及调度算法(四) LVS负载均衡调度算法(五) LVS软件包组成(六)负载均衡集群企业级应用实战-LVS(nat模式,DR模式)(七) 实现LVS持久连接(八)实现LVS健康状态监测功能所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(51)

评论列表共有 0 条评论

立即
投稿
返回
顶部