LVS负载均衡群集介绍与NAT模式的部署

x33g5p2x  于2021-12-06 转载在 其他  
字(10.8k)|赞(0)|评价(0)|浏览(403)

一、LVS集群(Linux Virtual server)

  • 集群概念
  • lvs模型
  • lvs调度算法
  • lvs实现
  • lvs高可用性,负载均衡

1 集群和分布式

系统性能扩展方式:

  • Scale UP:垂直扩展,向上扩展,增强,性能更强的计算机运行同样的服务
  • Scale Out:水平扩展,向外扩展,增加设备,并行地运行多个服务调度分配问题,Cluster

1.1 集群 Cluster

Cluster:集群,为解决某个特定问题将多台计算机组合起来形成的单个系统

Cluster分为三种类型:

  • LB: Load Balancing,负载均衡,多个主机组成,每个主机只承担一部分访问请求
  • HA: High Availiablity,高可用,避免 SPOF(single Point Of failure)
  • HPC: High-performance computing,高性能
MTTR:Mean Time To Restoration( repair)平均恢复前时间,故障时间
A = MTBF /(MTBF+MTTR) (0,1):99%,99.5%,99.9%,99.99%,99.999%

SLA:服务等级协议(简称:SLA,全称:service level agreement)。是在一定开销下为保障服
务的性能和可用性,服务提供商与用户间定义的一种双方认可的协定。通常这个开销是驱动提供服
务质量的主要因素。在常规的领域中,总是设定所谓的三个9,四个9来进行表示,当没有达到这
种水平的时候,就会有一些列的惩罚措施,而运维,最主要的目标就是达成这种服务水平。

1年 = 365天 = 8760小时
90 = (1-90%)*365=36.5天
99 = 8760 * 1% = 87.6小时
99.9 = 8760 * 0.1% = 8760 * 0.001 = 8.76小时
99.99 = 8760 * 0.0001 = 0.876小时 = 0.876 * 60 = 52.6分钟
99.999 = 8760 * 0.00001 = 0.0876小时 = 0.0876 * 60 = 5.26分钟
99.9999= (1-99.9999%)*365*24*60*60=31秒

#停机时间又分为两种,一种是计划内停机时间,一种是计划外停机时间,而运维则主要关注计划外停机时间。

#轮询(Round Robin):将收到的访问请求按照顺序轮流分配给群集中的各节点,均 等地对待每台服务器,而不管服务器实际的连接数和系统负载。 

#加权轮询(Weighted Round Robin):根据调度器设置的权重值来分发请求,权重 值高的节点优先获得任务并且分配的请求越多,这样可以保证性能高的节点承担更 多请求。 

#最少连接(Least Connections):根据真实服务器已建立的连接数进行分配,将收 到的访问请求优先分配给连接数最少的节点。如果所有的服务器节点性能相近,采用这种方式可以更好地均衡负载。 

#加权最少连接(Weighted Least Connections):在服务器节点的性能差异较大的 情况下,调度器可以根据节点服务器负载自动调整权重,权重较高的节点将承担更 大比例的活动连接负载。 

#IP_Hash根据请求来源的IP地址进行Hash计算,得到后端服务器,这样来自同一个IP的请求总是会落到同一台服务器上处理,以致于可以将请求上下文信息存储在这个服务器上,

#url_hash 按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。具体没研究过

#fair采用的不是内建负载均衡使用的轮换的均衡算法,而是可以根据页面大小、加载时间长短智能的进行负载均衡。也就是根据后端服务器时间来分配用户请求,响应时间短的优先分配

1.2 分布式系统

分布式存储:Ceph,GlusterFS,FastDFS,MogileFS

分布式计算:hadoop,Spark

分布式常见应用

  • 分布式应用-服务按照功能拆分,使用微服务(单一应用程序划分成一组小的服务,服务之间互相协调、互相配合,为用户提供最终价值服务)
  • 分布式静态资源–静态资源放在不同的存储集群上
  • 分布式数据和存储–使用key-value缓存系统
  • 分布式计算–对特殊业务使用分布式计算,比如Hadoop集群

1.3 集群和分布式

集群:同一个业务系统,部署在多台服务器上。集群中,每一台服务器实现的功能没有差别,数据和代

码都是一样的。

分布式:一个业务被拆成多个子业务,或者本身就是不同的业务,部署在多台服务器上。分布式中,每

一台服务器实现的功能是有差别的,数据和代码也是不一样的,分布式每台服务器功能加起来,才是完

整的业务。

对于大型网站,访问用户很多,实现一个群集,在前面部署一个负载均衡服务器,后面几台服务器完成
同一业务。如果有用户进行相应业务访问时,负载均衡器根据后端哪台服务器的负载情况,决定由给哪
一台去完成响应,并且一台服务器垮了,其它的服务器可以顶上来。分布式的每一个节点,都完成不同
的业务,如果一个节点垮了,那这个业务可能就会失败

1.4 集群设计原则

可扩展性—集群的横向扩展能力

可用性—无故障时间 (SLA service level agreement)

性能—访问响应时间

容量—单位时间内的最大并发吞吐量(C10K 并发问题)

1.5 集群设计实现

1.5.1 基础设施层面
  • 提升硬件资源性能—从入口防火墙到后端 web server 均使用更高性能的硬件资源
  • 多域名—DNS 轮询A记录解析
  • 多入口—将A记录解析到多个公网IP入口
  • 多机房—同城+异地容灾
  • CDN(Content Delivery Network)—基于GSLB(Global Server Load Balance)实现全局负载均衡,如:DNS
1.5.2 业务层面
  • 分层:安全层、负载层、静态层、动态层、(缓存层、存储层)持久化与非持久化
  • 分割:基于功能分割大业务为小服务
  • 分布式:对于特殊场景的业务,使用分布式计算

1.6 LB Cluster 负载均衡集群

1.6.1 按实现方式划分
  • 硬件

F5 Big-IP(F5服务器负载均衡模块)
Citrix Netscaler
A10 A10

  • 软件

lvs:Linux Virtual Server,阿里四层 SLB (Server Load Balance)使用

nginx:支持七层调度,阿里七层SLB使用 Tengine

haproxy:支持七层调度

ats:Apache Traffic Server,yahoo捐助给apache

perlbal:Perl 编写

pound

1.6.2 基于工作的协议层次划分
  • 传输层(通用):DNAT 和 DPORT

​ LVS:

​ nginx:stream

​ haproxy:mode tcp

  • 应用层(专用):针对特定协议,常称为 proxy server

​ http:nginx, httpd, haproxy(mode http), …

​ fastcgi:nginx, httpd, …

​ mysql:mysql-proxy, mycat…

1.6.3 负载均衡的会话保持
  1. session sticky:同一用户调度固定服务器

Source IP:LVS sh算法(对某一特定服务而言)

​ Cookie

  1. session replication:每台服务器拥有全部session(复制)

session multicast cluster

  1. session server:专门的session服务器(server)

Memcached,Redis

1.7 HA 高可用集群实现

keepalived:vrrp协议

Ais:应用接口规范

​ heartbeat

​ cman+rgmanager(RHCS)

​ coresync_pacemaker

2 Linux Virtual Server简介

2.1 LVS介绍

LVS:Linux Virtual Server,负载调度器,内核集成,章文嵩(花名正明), 阿里的四层SLB(Server

Load Balance)是基于LVS+keepalived实现

阿里SLB和LVS:
https://yq.aliyun.com/articles/1803
https://github.com/alibaba/LVS

2.2 LVS工作原理

VS根据请求报文的目标IP和目标协议及端口将其调度转发至某RS,根据调度算法来挑选RS。LVS是内核

级功能,工作在INPUT链的位置,将发往INPUT的流量进行“处理”

[root@localhost ~]#grep -i -C 10 ipvs /boot/config-3.10.0-693.el7.x86_64 
CONFIG_NETFILTER_XT_MATCH_CPU=m
CONFIG_NETFILTER_XT_MATCH_DCCP=m
CONFIG_NETFILTER_XT_MATCH_DEVGROUP=m
CONFIG_NETFILTER_XT_MATCH_DSCP=m
CONFIG_NETFILTER_XT_MATCH_ECN=m
CONFIG_NETFILTER_XT_MATCH_ESP=m
CONFIG_NETFILTER_XT_MATCH_HASHLIMIT=m
CONFIG_NETFILTER_XT_MATCH_HELPER=m
CONFIG_NETFILTER_XT_MATCH_HL=m
CONFIG_NETFILTER_XT_MATCH_IPRANGE=m
CONFIG_NETFILTER_XT_MATCH_IPVS=m
CONFIG_NETFILTER_XT_MATCH_LENGTH=m
CONFIG_NETFILTER_XT_MATCH_LIMIT=m
CONFIG_NETFILTER_XT_MATCH_MAC=m
CONFIG_NETFILTER_XT_MATCH_MARK=m
CONFIG_NETFILTER_XT_MATCH_MULTIPORT=m
CONFIG_NETFILTER_XT_MATCH_NFACCT=m
CONFIG_NETFILTER_XT_MATCH_OSF=m
CONFIG_NETFILTER_XT_MATCH_OWNER=m
CONFIG_NETFILTER_XT_MATCH_POLICY=m
CONFIG_NETFILTER_XT_MATCH_PHYSDEV=m
--
CONFIG_IP_SET_HASH_NET=m
CONFIG_IP_SET_HASH_NETPORT=m
CONFIG_IP_SET_HASH_NETIFACE=m
CONFIG_IP_SET_LIST_SET=m
CONFIG_IP_VS=m
CONFIG_IP_VS_IPV6=y
# CONFIG_IP_VS_DEBUG is not set
CONFIG_IP_VS_TAB_BITS=12

#
# IPVS transport protocol load balancing support
#
CONFIG_IP_VS_PROTO_TCP=y
CONFIG_IP_VS_PROTO_UDP=y
CONFIG_IP_VS_PROTO_AH_ESP=y
CONFIG_IP_VS_PROTO_ESP=y
CONFIG_IP_VS_PROTO_AH=y
CONFIG_IP_VS_PROTO_SCTP=y

#
# IPVS scheduler
#
CONFIG_IP_VS_RR=m
CONFIG_IP_VS_WRR=m
CONFIG_IP_VS_LC=m
CONFIG_IP_VS_WLC=m
CONFIG_IP_VS_LBLC=m
CONFIG_IP_VS_LBLCR=m
CONFIG_IP_VS_DH=m
CONFIG_IP_VS_SH=m
CONFIG_IP_VS_SED=m
CONFIG_IP_VS_NQ=m

#
# IPVS SH scheduler
#
CONFIG_IP_VS_SH_TAB_BITS=8

#
# IPVS application helper
#
CONFIG_IP_VS_FTP=m
CONFIG_IP_VS_NFCT=y
CONFIG_IP_VS_PE_SIP=m

#
# IP: Netfilter Configuration
#
CONFIG_NF_DEFRAG_IPV4=m
CONFIG_NF_CONNTRACK_IPV4=m

2.3 LVS集群体系架构

2.4 LVS 功能及组织架构

负载均衡的应用场景为高访问量的业务,提高应用程序的可用性和可靠性。

2.4.1 应用于高访问量的业务

如果您的应用访问量很高,可以通过配置监听规则将流量分发到不同的云服务器 ECS(Elastic

Compute Service 弹性计算服务)实例上。此外,可以使用会话保持功能将同一客户端的请求转发到同

一台后端ECS

2.4.2 扩展应用程序

可以根据业务发展的需要,随时添加和移除ECS实例来扩展应用系统的服务能力,适用于各种Web服务

器和App服务器。

2.4.3 消除单点故障

可以在负载均衡实例下添加多台ECS实例。当其中一部分ECS实例发生故障后,负载均衡会自动屏蔽故

障的ECS实例,将请求分发给正常运行的ECS实例,保证应用系统仍能正常工作

2.4.4 同城容灾 (多可用区容灾)

为了提供更加稳定可靠的负载均衡服务,阿里云负载均衡已在各地域部署了多可用区以实现同地域容

灾。当主可用区出现机房故障或不可用时,负载均衡仍然有能力在非常短的时间内(如:大约30s中

断)切换到另外一个备可用区恢复服务能力;当主可用区恢复时,负载均衡同样会自动切换到主可用区

提供服务。

使用负载均衡时,您可以将负载均衡实例部署在支持多可用区的地域以实现同城容灾。此外,建议您结

合自身的应用需要,综合考虑后端服务器的部署。如果您的每个可用区均至少添加了一台ECS实例,那

么此种部署模式下的负载均衡服务的效率是最高的。

2.5 LVS集群类型中的术语

  • VS:Virtual Server,Director Server(DS), Dispatcher(调度器),Load Balancer(lvs服务器)
  • RS:Real Server(lvs), upstream server(nginx), backend server(haproxy)(真实服务器)
  • CIP:Client IP(客户机IP)
  • VIP:Virtual serve IP VS外网的IP
  • DIP:Director IP VS内网的IP
  • RIP:Real server IP (真实IP)

访问流程:CIP <–> VIP == DIP <–> RIP

3 LVS工作模式和相关命令

3.1 LVS集群的工作模式

  • lvs-nat:修改请求报文的目标IP,多目标IP的DNAT
  • lvs-dr:操纵封装新的MAC地址(直接路由)
  • lvs-tun:隧道模式
3.1.1 LVS的NAT模式

lvs-nat:本质是多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为某处的RS的RIP和

PORT实现转发

(1)RIP和DIP应在同一个IP网络,且应使用私网地址;RS的网关要指向DIP

(2)请求报文和响应报文都必须经由Director转发,Director易于成为系统瓶颈

(3)支持端口映射,可修改请求报文的目标PORT

(4)VS必须是Linux系统,RS可以是任意OS系统

3.1.2 IP隧道

  1. RIP和DIP可以不处于同一物理网络中,RS的网关一般不能指向DIP,且RIP可以和公网通信。也就是

说集群节点可以跨互联网实现。DIP, VIP, RIP可以是公网地址。

  1. RealServer的通道接口上需要配置VIP地址,以便接收DIP转发过来的数据包,以及作为响应的

报文源IP。

  1. DIP转发给RealServer时需要借助隧道,隧道外层的IP头部的源IP是DIP,目标IP是RIP,而

RealServer响应给客户端的IP头部是根据隧道内层的IP头分析得到的,源IP是VIP,目标IP是CIP

  1. 请求报文要经由Director,但响应不经由Director,响应由RealServer自己完成
  2. 不支持端口映射
  3. RS的OS须支持隧道功能
一般来说,隧道模式常会用来负载调度缓存服务器组,这些缓存服务器一般放置在不同的网络环境,可以就近
折返给客户端。在请求对象不在Cache服务器本地命中的情况下,Cache服务器要向源服务器发送请求,将结
果取回,最后将结果返回给用户。
3.1.3直接路由

直接路由(Direct Routing):简称 DR 模式,采用半开放式的网络结构,与 TUN

模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络。

负载调度器与各节点服务器通过本地网络连接,不需要建立专用的 IP 隧道

直接路由,LVS默认模式,应用最广泛,通过请求报文重新封装一个MAC首部

进行转发,源MAC是DIP所在的接口的MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址;源

IP/PORT,以及目标IP/PORT均保持不变

3.1.5 LVS工作模式总结和比较
NATTUNDR
优点端口转换WAN性能最好
缺点性能瓶颈服务器支持隧道模式不支持跨网段
真实服务器要求anyTunnelingNon-arp device
支持网络private(私网)LAN/WAN(私网/公网)LAN(私网)
真实服务器数量low (10~20)High (100)High (100)
真实服务器网关lvs内网地址Own router(网工定义)Own router(网工定义)

4 ipvsadm 工具

4.1 ipvsadm 工具选项说明

-A: 添加虚拟服务器
-D: 删除整个虚拟服务器
-s: 指定负载调度算法(轮询: rr、加权轮询: wrr、最少连接: lc、加权最少连接: wlc)
-a: 添加真实服务器(节点服务器)
-d: 删除某一个节点
-t: 指定VIP地址及TCP端口
-r: 指定RIP地址及TCP端口
-m: 表示使用NAT群集模式
-g: 表示使用DR模式
-i: 表示使用TUN模式
一w: 设置权重(权重为0时表示暂停节点)
-p 60: 表示保持长连接60秒
-l: 列表查看 LVS虚拟服务器(默认为查看所有)
-n: 以数字形式显示地址、端口等信息,常与"-l“选项组合使用。ipvsadm -ln

5.NAT模式 LVS负载均衡部署

配置环境:

负载调度器:配置双网卡 内网:192.168.187.150(ens33)  外网卡:12.0.0.1(ens37)
二台WEB服务器集群池:192.168.187.170、192.168.187.180   
一台NFS共享服务器:192.168.91.160
客户端:

5.1部署共享存储(NFS服务器:192.168.187.160)

NFS 是一种基于 TCP/IP 传输的网络文件系统协议,最初由 Sun 公司开发。通过使用 NFS

协议,客户机可以像访问本地目录一样访问远程服务器中的共享资源。对于大多数负载均衡

群集来说,使用 NFS 协议来共享数据存储是比较常见的做法,NFS 也是 NAS 存储设备必然支

持的一种协议。

NFS 服务的实现依赖于 RPC(Remote Process Call,远端过程调用)机制,以完成远程

到本地的映射过程。在 CentOS 7 系统中,需要安装 nfs-utils、rpcbind 软件包来提供 NFS

共享服务,前者用于 NFS 共享发布和访问,后者用于 RPC 支持

关闭防火墙和selinux
[root@localhost ~]#systemctl stop firewalld
	[root@localhost ~]#setenforce 0
安装nfs服务
yum install nfs-utils rpcbind -y

开启服务
[root@localhost ~]# systemctl start rpcbind
	[root@localhost ~]# systemctl start nfs

新建目录,并创建站点文件
[root@localhost ~]#mkdir /opt/tcy /opt/benet
	[root@localhost ~]#chmod 777 /opt/tcy/ /opt/benet/
	[root@localhost ~]#echo 'this is tcy ! ' > /opt/tcy/index.html
	[root@localhost ~]#echo 'this is benet ! ' > /opt/benet/index.html

设置共享策略
[root@localhost ~]#vim /etc/exports
	#设置共享策略
	/opt/tcy 192.168.187.0/24(rw,sync)
	/opt/benet 192.168.187.0/24(rw,sync)
	#发布服务
	[root@localhost ~]#exportfs -rv
	#重启nfs服务
	[root@localhost ~]# systemctl restart nfs

5.2 节点服务器

第一台
修改网卡配置文件 将网关改为调度器内网的ip地址 192.168.187.150,将DNS注释掉
vim /etc/sysconfig/network-scripts/ifcfg-ens33
	#重启网卡
	systemctl restart network

关闭防火墙和selinux
[root@localhost ~]#systemctl stop firewalld
	[root@localhost ~]#setenforce 0
安装httpd服务并安装

[root@localhost ~]#yum install httpd -y

查看nfs服务
[root@localhost ~]#showmount -e 192.168.187.160

挂载站点
mount 192.168.187.160:/opt/tcy /var/www/html
	#或者永久挂载
	vim /etc/fstab
	192.168.187.160:/opt/tcy    /var/www/html   nfs   defaults,_netdev  0   0
	mount -a  #重新挂载一下
	df Th   查看是否挂载成功

查看挂载目录下nfs共享的文件是否生成
ls /var/www/html

第二台
修改网卡配置文件 将网关改为调度器内网的ip地址 192.168.187.150,将DNS注释掉
vim /etc/sysconfig/network-scripts/ifcfg-ens33
	#重启网卡
	systemctl restart network

关闭防火墙和selinux
[root@localhost ~]#systemctl stop firewalld
	[root@localhost ~]#setenforce 0
安装httpd服务并安装

[root@localhost ~]#yum install httpd -y

查看nfs服务
[root@localhost ~]#showmount -e 192.168.187.160

挂载站点
mount 192.168.187.160:/opt/benet /var/www/html
	#或者永久挂载
	vim /etc/fstab
	192.168.187.160:/opt/benet    /var/www/html   nfs   defaults,_netdev  0   0
	mount -a  #重新挂载一下
	df Th   查看是否挂载成功

查看挂载目录下nfs共享的文件是否生成
ls /var/www/html

5.3 调度服务器

关闭防火墙和selinux
[root@localhost ~]#systemctl stop firewalld
	[root@localhost ~]#setenforce 0
加一块网卡 ens37 配置ip地址 去掉网关
[root@localhost ~]#cd /etc/sysconfig/network-scripts/
	[root@localhost network-scripts]#cp ifcfg-ens33 ifcfg-ens37
	[root@localhost network-scripts]#vim ifcfg-ens37
	#去掉网关
	[root@localhost network-scripts]#vim ifcfg-ens37
	#去掉网关重启服务

	##ens33也要注释掉网关

打开路由转发功能
[root@localhost network-scripts]#vim /etc/sysctl.conf
	net.ipv4.ip_forward = 1 
	[root@localhost network-scripts]#sysctl -p
	net.ipv4.ip_forward = 1

防火墙策略
#查看策略
	[root@localhost network-scripts]#iptables -nL -t nat
	#清空策略
	[root@localhost network-scripts]#iptables -F
	#添加策略
	[root@localhost network-scripts]#iptables -t nat -A POSTROUTING -s 192.168.91.0/24 -o ens37 -j SNAT --to 12.0.0.1
	#查看策略
	[root@localhost network-scripts]#iptables -nL -t nat

加载内核模块
[root@localhost network-scripts]#modprobe ip_vs
	[root@localhost network-scripts]#cat /proc/net/ip_vs

安装软件ipvsadm
[root@localhost yum.repos.d]#yum install ipvsadm* -y

保存配置文件启动服务(很重要不保存起不来)
[root@localhost yum.repos.d]#ipvsadm-save >/etc/sysconfig/ipvsadm
	# 启动服务ipvsadm
	[root@localhost yum.repos.d]#systemctl start ipvsadm.service

清空策略
[root@localhost yum.repos.d]#ipvsadm -A -t 12.0.0.1:80 -s rr
	#指定IP地址 外网的入口  -s rr  轮询
	[root@localhost yum.repos.d]#ipvsadm -a -t 12.0.0.1:80 -r 192.168.91.101:80 -m
	#先指定虚拟服务器再添加真实服务器地址,-r:真实服务器地址 -m指定nat模式
	[root@localhost yum.repos.d]#ipvsadm -a -t 12.0.0.1:80 -r 192.168.91.103:80 -m
	[root@localhost yum.repos.d]#ipvsadm -ln
	#查看策略
	[root@localhost yum.repos.d]#ipvsadm
	#启动

5.4 测试

开一台win7的虚拟机修改 ip为12.0.0.12 网关为12.0.0.1

在浏览器中输入 http://12.0.0.1

再刷新一下

这样就实现了负载均衡,但是这种nat模式缺点是 调度器的压力太大,进出都要经过调度器

相关文章

目录