LVS 负载均衡群集--理论详解--LVS-NAT 负载均衡群集项目实战

x33g5p2x  于2021-10-20 转载在 其他  
字(8.2k)|赞(0)|评价(0)|浏览(592)

前言

在各种互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器将难以承担所有的访问(即负载均衡及高可用性的要求),除了使用价格昂贵的大型机、专用负载分流设备外,企业还有另外一种选择来解决难题,那就是构建集群服务器——通过整合多台对廉价的普通服务器,以同一个地址对外提供相同的服务,接下来我们将要学习在企业中常用的一种集群技术——LVS(Linux Virtual Server,Linux 虚拟服务器)

一、LVS 群集应用基础

1.群集的分类

无论哪种群集,都至少包括两台节点服务器,而对外表现为一个整体,只提供一个访问入口(域名或IP系统)
*
根据群集所针对的目标差异,可分为以下三种类型:

①负载均衡集群

  • 提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
  • 例如,“DNS轮询”“应用层交换”“反向代理”等都可用做负载均衡群集
  • LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载

②高可用集群

  • 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
  • 例如,“故障切换”“双机热备”等都是属于高可用群集技术
  • HA的工作方式包括双工和主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点

③高性能运算集群

  • 以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
  • 例如,“云计算”“网格计算”也可视为高性能运算的一种
  • 高性能依赖于"分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力
    不同类型的群集在必要时可以合并,如高可用的负载均衡群集

2 .负载均衡的分层结构

  • 在典型的负载均衡群集中,包括三个层次的组件,前端至少有一个负载调度器(Load Balancer,或称为 Director)负责响应并分发来自客户端的访问请求
  • 后端由大量真实服务器(Real Server)构成服务器池(Server Pool),提供实际的应用服务,整个群集的伸缩性通过增加、删除服务器节点来完成,而这些过程对客户机是透明的
  • 为了保持服务的一致性,所有节点统一使用共享存储设备

①第一层:负载调度器

  • 访问整个群集系统的唯一入口,对外使用所有服务器共有的 VIP(Virtual IP,虚拟 IP)地址,也称为群集 IP 地址
  • 通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性

②第二层:服务器池

  • 群集所提供的应用服务(如 HTTP、FTP)、由服务器池承担,其中每个节点具有独立的 RIP 地址(Real IP,真实 IP),只处理调度器分发过来的客户机请求
  • 当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池

③第三层:共享存储

  • 为服务器池中的所有节点提供稳定、一致的文件存取服务, 确保整个群集的统一性
  • 共享存储可以使用 NAS 设备,或者提供 NFS(Network File System,网络文件系统) 共享服务的专用服务器

3.负载均衡的工作模式

  • 关于群集的负载调度技术,可以基于 IP、端口、内容等进行分发,其中基于 IP 的负载调度是效率最高的
  • 基于 IP 的负载均衡中,常见的有地址转换、IP 隧道和直接路由三种工作模式:

①地址转换(Network Address Translation)

  • 简称 NAT 模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
  • 服务器节点使用私有 IP 地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式

②IP 隧道(IP Tunnel)

  • 简称 TUN 模式,采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的 Internet 连接直接回应客户机,而不再经过负载调度器
  • 服务器节点分散在互联网中的不同位置,具有独立的公网 IP 地址,通过专用 IP 隧道与负载调度器相互通信

③ 直接路由(Direct Routing)

  • 简称 DR 模式,采用半开放式的网络结构,与 TUN 模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
  • 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的 IP 隧道

二、LVS虚拟服务器

LVS 实际上相当于基于IP地址的虚拟化应用,为基于 IP 地址和内容请求分发的负载均衡提出了一种高效的解决方法
*
LVS 现在已成为 Linux 内核的一部分,默认编译为 ip_vs 模块,必要时能够自动调用
*
在 CentOS 7 系统中,以下操作可以手动加载 ip_vs 模块,并查看当前系统中 ip_vs 模块的版本信息

[root@localhost ~]# modprobe ip_vs #加载 ip_vs 模块
[root@localhost ~]# cat /proc/net/ip_vs #查看 ip_vs 版本信息
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port Forward Weight ActiveConn InActConn

1.LVS的负载调度算法

针对不同的网络服务和配置需要,LVS 调度器提供多种不同的负载调度算法,其中最常见的四种算法包括轮询、加权轮询、最少连接和加权最少连接

①轮询

  • 将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器)
  • 均等地对待每一台服务器 ,而不管服务器实际的连接数和系统负载

②加权轮询

  • 根据真实服务器的处理能力轮流分配收到的访问请求
  • 调度器可以自动查询各节点的负载情况,并动态调整其权重
  • 这样可以保证处理能力强的服务器承担更多的访问流量

③最少连接数

  • 根据真实服务器已建立的连接数进行分配
  • 将收到的访问请求优先分配给连接数最少的节点
  • 如果所有的服务器节点性能相近,采用这种方式可以更好的均衡负载

④加权最少连接数

  • 在服务器节点的性能差异较大时,可以为真实服务器自动调整权重
  • 权重较高的节点将承担更大比例的活动连接负载

2.使用ipvsadm管理工具

  • ipvsadm 是在负载调度器上使用的 LVS 群集管理工具,通过调用 ip_vs 模块来添加、删除服务器节点,以及查看群集的运行状态

①安装

  • 在CentOS7系统中,需要手动安装此软件
[root@localhost ~]# yum -y install ipvsadm
[root@localhost ~]# ipvsadm -v
ipvsadm v1.27 2008/5/15 (compiled with popt and IPVS v1.2.1)

②操作方法

常用选项说明
-A添加虚拟服务器
-D删除整个虚拟服务器
-s指定负载调度算法 (轮询:rr、加权轮询: wrr、最少连接:lc、加权最少连接: wlc )
-a表示添加真实服务器 (节点服务器)
-d删除某一个节点
-t指定 VIP地址及 TCP端口
-r指定 RIP地址及 TCP端口
-m表示使用 NAT群集模式.
-g表示使用 DR模式
-i表示使用 TUN模式
-w设置权重 (权重为 0 时表示暂停节点)
-p 60表示保持长连接60秒
-l列表查看 LVS 虚拟服务器 (默认为查看所有)
-n以数字形式显示地址、端口等信息,常与 “-l” 选项组合使用。ipvsadm -ln

③示例

1.管理虚拟服务器

#添加一个虚拟服务192.168.1.100:80,使用轮询算法
ipvsadm -A -t 192.168.1.100:80 -s rr

#修改虚拟服务的算法为加权轮询
ipvsadm -E -t 192.168.1.100:80 -s wrr

#删除虚拟服务
ipvsadm -D -t 192.168.1.100:80

2.管理真实服务

#添加一个真实服务器192.168.1.123,使用DR模式,权重2
ipvsadm -a -t 192.168.1.100:80 -r 192.168.1.123 -g -w 2

#修改真实服务器的权重
ipvsadm -E -t 192.168.1.100:80 -r 192.168.1.123 -g -w 5

#删除真实服务器
ipvsadm -d -t 192.168.1.100:80 -r 192.168.1.123

3.查看统计

#查看当前配置的虚拟服务和各个RS的权重
ipvsadm -Ln

#查看当前ipvs模块中记录的连接(可用于观察转发情况)
ipvsadm -lnc

#查看ipvs模块的转发情况统计

ipvsadm -Ln --stats | --rate

二、构建 LVS-NAT 负载均衡群集

1.项目准备

  • 在 NAT 模式的群集中,LVS 负载调度器是所有节点访问 Internet 的网关服务器,同时也作为整个群集的 VIP 地址
  • LVS 调度器具有两块网卡,分别连接内外网

  • 对于 LVS 负载均衡调度器来说,需使用 iptables 为出站响应配置 SNAT 转发规则,以便节点服务器能够访问 Internet
  • 所有的节点服务器、共享存储均位于私有网络内,其默认网关设为 LVS 负载调度器的内网地址

2.环境设置

客户端(Win10):12.0.0.12
负载调度器(CentOS 7-1):内网关 ens33:192.168.126.11,外网关 ens32:12.0.0.1
Web节点服务器1(CentOS 7-2):192.168.126.12
Web节点服务器2(CentOS 7-3):192.168.126.13

宿主机:Windows 10 专业工作站版本
VWware 16 Pro(16.1.0)
CentOS7
虚拟机网络适配器均为 NAT 模式
网卡配置均为静态获取
本地 YUM 源仓库

3.部署NFS共享存储

[root@xjj xjj]# systemctl stop firewalld.service
[root@xjj xjj]# systemctl disable firewalld.service
[root@xjj xjj]# setenforce 0

#安装nfs共享所需软件包及开启nfs功能
[root@xjj xjj]# yum install nfs-utils rpcbind -y
[root@xjj xjj]# systemctl start nfs.service
[root@xjj xjj]# systemctl start rpcbind.service
[root@xjj xjj]# systemctl enable nfs.service
[root@xjj xjj]# systemctl enable rpcbind.service

#给予共享文件最大权限
[root@xjj xjj]# mkdir /opt/xcf /opt/zxc
[root@xjj xjj]# chmod 777 /opt/xcf /opt/zxc

#给共享文件输出内容,以作网站首页内容
[root@xjj xjj]# cd /opt/xjj
[root@xjj xjj]# echo 'hello xjj' > index.html
[root@xjj xjj]# cd /opt/xcf
[root@xjj xcf]# echo 'hello xcf' > index.html

[root@xjj ~]# vim /etc/exports
/usr/share *(ro,sync)
/opt/xjj 192.168.126.0/24(rw,sync)
/opt/xcf 192.168.126.0/24(rw,sync)

[root@xjj ~]# exportfs -rv
exporting 192.168.126.0/24:/opt/xjj
exporting 192.168.126.0/24:/opt/xcf
exporting *:/usr/share
[root@xjj ~]# showmount -e
Export list for xjj:
/usr/share *
/opt/xcf   192.168.126.0/24
/opt/xjj   192.168.126.0/24

4.配置节点服务器

[root@localhost ~]# systemctl stop firewalld
[root@localhost ~]# systemctl disable firewalld
[root@localhost ~]# setenforce 0

[root@localhost ~]# yum -y install httpd
[root@localhost ~]# systemctl start httpd.service 
[root@localhost ~]# systemctl enable httpd.service 
Created symlink from /etc/systemd/system/multi-user.target.wants/httpd.service to /usr/lib/systemd/system/httpd.service.
[root@localhost ~]# yum -y install nfs-utils.x86_64 rpcbind
[root@localhost ~]# systemctl start nfs.service 
[root@localhost ~]# systemctl enable nfs.service 
Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
[root@localhost ~]# systemctl start rpcbind.service
[root@localhost ~]# systemctl enable rpcbind.service

[root@localhost ~]# showmount -e 192.168.126.14
Export list for 192.168.126.14:
/usr/share *
/opt/xcf   192.168.126.0/24
/opt/xjj   192.168.126.0/24
[root@localhost ~]# mount 192.168.126.14:/opt/xjj /var/www/html/
[root@localhost ~]# cd /var/www/html/
[root@localhost html]# ls
index.html
[root@localhost html]# cat index.html 
hello xjj

[root@localhost html]# vim /etc/fstab 
192.168.126.14:/opt/xjj /var/www/html nfs defaults,_netdev 0 0
[root@localhost html]# mount -a
  • 另一台节点服务器同上,注意区分两个不同的共享文件夹

5.配置负载调度器

systemctl stop firewalld.service 
systemctl disable firewalld.service 
setenforce 0

#添加一块网卡后开机
ifconfig ens36 12.0.0.1/24

①配置SNAT转发规则

vim /etc/sysctl.conf
net.ipv4.ip_forward = 1

sysctl -p

#先清空iptables规则
iptables -t nat -F
iptables -F

iptables -t nat -A POSTROUTING -s 192.168.126.0/24 -o ens32 -j SNAT --to-source 12.0.0.1

②加载LVS内核模块

#加载ip_vs模块
modprobe ip_vs

#查看ip_vs版本信息
cat /proc/net/ip_vs

③安装ipvsadm管理工具

yum install -y ipvsadm

#启动服务前须保存负载分配策略
ipvsadm-save > /etc/sysconfig/ipvsadm
或
ipvsadm --save > /etc/sysconfig/ipvsadm

[root@localhost ~]# ipvsadm-save > /etc/sysconfig/ipvsadm
[root@localhost ~]# systemctl start ipvsadm.service

④配置负载分配策略(NAT模式只要在服务器上配置,节点服务器不需要特殊配置)

#清除原有策略
[root@localhost ~]# ipvsadm -C
[root@localhost ~]# ipvsadm -A -t 12.0.0.1:80 -s rr
[root@localhost ~]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.126.12:80 -m -w 1
[root@localhost ~]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.126.13:80 -m -w 1

#启用策略
[root@localhost ~]# ipvsadm
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  localhost.localdomain:http rr
  -> 192.168.126.12:http          Masq    1      0          0         
  -> 192.168.126.13:http          Masq    1      0          0         

#查看节点状态,Masq代表 NAT模式
[root@localhost ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  12.0.0.1:80 rr
  -> 192.168.126.12:80            Masq    1      0          0         
  -> 192.168.126.13:80            Masq    1      0          0 

#保存策略
[root@localhost ~]# ipvsadm-save > /etc/sysconfig/ipvsadm
  • 两台负载均衡的主机,记得把网关都指向调度器的网关

补充

#删除群集中某一节点服务器
ipvsadm -d -t 12.0.0.1:80 -r 192.168.126.12:80 -m [-w 1]

#删除整个虚拟服务器
ipvsadm -D -t 12.0.0.1:80

#停止服务(清除策略)
systemctl stop ipvsadm

#启动服务(重建规则)
systemctl start ipvsadm

#恢复LVS 策略
ipvsadm-restore < /etc/sysconfig/ipvsadm
#时间同步
[root@localhost ~]# ntpdate ntp1.aliyun.com
19 Oct 16:03:43 ntpdate[68619]: adjust time server 120.25.115.20 offset -0.000822 sec

6.测试LVS集群

  • 打开 Win10 修改网络适配器,测试机的网关要指向调度器的的网关

  • 打开浏览器,访问 http:/12.0.0.1 ,将能够看到由真实服务器提供的网页内容——如果各节点的网页不同,则不同客户机看到的网页可能也不一样(需多刷新几次,间隔需多等待一会儿,我等了大概三五分钟)

  • 在 LVS 负载调度器中,通过查看节点状态可以观察当前的负载分配情况,对于轮询算法来说,每个节点所获得的连接负载应大致相同

总结

LVS四层的负载均衡服务

①LVS模式

NAT DR TUN

②分流算法

RR WRR LC WLC

③集群的分类

负载均衡集群、高可用集群、高性能运算集群

LVS负载均衡的三种模式,NAT,DR,TUN隧道

在我们公司里,我们经常会用DR模式,由于TUN费用比较高,所以我们会很少选择TUN,NAT模式中,由于接收和应答,路由都在lvs上,所以压力比较大,管理难度比较大,所以我们选择了DR模式

其次我们在使用DR模式的时候,我们可以隐藏自己的ip地址,这点也非常优于NAT的,在结合最后我们DR和Keepalive结合使用,增加了我们使用的安全和高可用的性能

相关文章