LVS(Linux Virtual Server)调度器

集群和分布式介绍

LVS(Linux Virtual Server)的功能

  • 作为IO调度器的角色,将请求转发到相对空闲的节点,提升处理性能,节点间均衡负载
  • 可以将多台服务器组合成一个集群对业务进行支持,降低企业硬件成本,提升处理业务性能
  • 稳定可靠,即使在集群的服务器中某台服务器无法正常工作,也不影响整体功能

集群与分布式的区别

  1. 系统性能扩展方式:

    • Scale UP:垂直扩展,向上扩展,增加性能,譬如CPU,内存,提升当前设备的性能以运行当前服务、业务;
    • Scale OUT:横向扩展,水平扩展,向外扩展,增加设备,并行地运行多个服务调度分配问题;

集群:Cluster

集群介绍:

  • Cluster:集群,为解决某个特定问题将多台计算机组合起来形成的单个系统
Cluster的分类:
  1. LB:Load Balancing,负载均衡,多个主机组成,每个主机只承担一部分访问请求

  2. HA:High Availiablity,高可用,避免SPOF(single Point Of failure)

    • MTBF:Mean Time Between Failure 平均无故障时间,正常时间

    • MTTR:Mean Time To Restoration( repair)平均恢复前时间,故障时间

    • A = MTBF /(MTBF+MTTR) (0,1):99%,99.5%,99.9%,99.99%,99.999%

    • SLA:服务等级协议(简称:SLA,全称:service level agreement)。是在一定开销下为保障服 务的性能和可用性,服务提供商与用户间定义的一种双方认可的协定。通常这个开销是驱动提供服 务质量的主要因素。在常规的领域中,总是设定所谓的三个9,四个9来进行表示,当没有达到这种 水平的时候,就会有一些列的惩罚措施,而运维,最主要的目标就是达成这种服务水平。

      1年 = 365天 = 8760小时
      90 = (1-90%)*365=36.5天
      99 = 8760 * 1% = 87.6小时
      99.9 = 8760 * 0.1% = 8760 * 0.001 = 8.76小时
      99.99 = 8760 * 0.0001 = 0.876小时 = 0.876 * 60 = 52.6分钟
      99.999 = 8760 * 0.00001 = 0.0876小时 = 0.0876 * 60 = 5.26分钟
      99.9999= (1-99.9999%)*365*24*60*60=31秒
      
    • 停机时间又分为两种,一种是计划内停机时间,一种是计划外停机时间,而运维则主要关注计划外的停机时间。

  3. HPC:High-performance computing,高性能 www.top500.org

分布式系统

主流分布式存储
  • Ceph
  • GlusterFS
  • FastDFS
  • MogileFS
分布式计算
  • hadoop
  • Spark

分布式常见应用

  1. 分布式应用-服务按照功能拆分,使用微服务
  2. 分布式静态资源–静态资源放在不同的存储集群上
  3. 分布式数据和存储–使用key-value缓存系统
  4. 分布式计算–对特殊业务使用分布式计算,比如Hadoop集群

集群和分布式的介绍与区别

集群:

  • 同一个业务系统,部署在多台服务器上。集群中,每一台服务器实现的功能没有差别,数据和代码都是一样的

分布式:

  • 一个业务被拆成多个子业务,或者本身就是不同的业务,部署在多台服务器上。分布式中,每一台服务器实现的功能是有差别的,数据和代码也是不一样的,分布式每台服务器功能加起来,才是完整的业务

区别:

  • 功能上:

    1. 集群:是通过提高单位时间内执行的任务数来提升效率;
    2. 分布式:是以缩短单个任务的执行时间来提升效率的;
  • 安全性:
    1. 集群:以多台服务器完成同一个业务,且需在前面部署负载均衡设备,实现访问IO与设备繁忙的均衡;当一台服务器宕机时,其余的服务器因运行的是同一业务所以可以临时替代;
    2. 分布式:分布式的每一个节点,都完成不同的业务,如果一个节点垮了,那这个业务可能就会失败;

集群的设计原则

  • 可扩展性—集群的横向扩展能力
  • 可用性—无故障时间 (SLA service level agreement)
  • 性能—访问响应时间
  • 容量—单位时间内的最大并发吞吐量(C10K 并发问题)
基础设施层面
  • 提升硬件资源性能—从入口防火墙到后端 web server 均使用更高性能的硬件资源
  • 多域名—DNS 轮询A记录解析
  • 多入口—将A记录解析到多个公网IP入口
  • 多机房—同城+异地容灾
  • CDN(Content Delivery Network)—基于GSLB(Global Server Load Balance)实现全局负载均衡,如:
    DNS
业务层面
  • 分层:安全层、负载层、静态层、动态层、缓存层(与非持久化)、存储层(持久化)
  • 分割:基于功能分割大业务为小服务
  • 分布式:对于特殊场景的业务,使用分布式计算

LB Cluster 负载均衡集群

硬件
  • F5 Big-IP
  • Citrix Netscaler
  • A10
软件
  • lvs:Linux Virtual Server,阿里四层 SLB (Server Load Balance)使用
  • nginx:支持七层调度,阿里七层SLB使用 Tengine
  • haproxy:支持七层调度
  • ats:Apache Traffic Server,yahoo捐助给apache
  • perlbal:Perl 编写
  • pound
基于工作的协议层次划分
传输层(通用):DNAT 和 DPORT
  • LVS:
  • nginx:stream
  • haproxy:mode tcp
应用层(专用):针对特定协议,常称为 proxy server
  • http:nginx, httpd, haproxy(mode http), …
  • fastcgi:nginx, httpd, …
  • mysql:mysql-proxy, mycat…
负载均衡的会话保持
  1. session sticky:同一用户调度固定服务器
    Source IP:LVS sh算法(对某一特定服务而言)
    Cookie
  2. session replication:每台服务器拥有全部session
    session multicast cluster
  3. session server:专门的session服务器
    Memcached,Redis
HA 高可用集群实现

keepalived:vrrp协议

Ais:应用接口规范

​ heartbeat

​ cman+rgmanager(RHCS)

​ coresync_pacemaker



Linux Virtual Server简介

LVS介绍

  • LVS:Linux Virtual Server,负载调度器,内核集成,章文嵩(花名 正明), 阿里的四层SLB(Server Load Balance)是基于LVS+keepalived实现
  • LVS 是全球最流行的四层负载均衡开源软件,由章文嵩博士(当前阿里云产品技术负责人)在1998年5 月创立,可以实现LINUX平台下的负载均衡。
  • LVS 官网:http://www.linuxvirtualserver.org/

阿里SLB和LVS:

https://yq.aliyun.com/articles/1803
https://github.com/alibaba/LVS

整个SLB系统由3个部分构成:四层负载均衡,七层负载均衡和控制系统,如下:

  • 四层负载均衡,采用开源软件LVS,并根据云计算需求对其进行了定制化;该技术在阿里爸爸内部业务全面上线应用2年多
  • 七层负载均衡,采用开源软件Tengine;
  • 控制系统,用户配置和监控负载均衡系统;

LVS工作原理

VS根据请求报文的目标IP和目标协议及端口将其调度转发至某RS,根据调度算法来挑选RS。LVS是内核 级功能,工作在INPUT链的位置,将发往INPUT的流量进行“处理”

#查看内核是否支持LVS
grep -C 10 -i "ipvs" /boot/config-3.10.0-1127.el7.x86_64
# IPVS transport protocol load balancing support
#
CONFIG_IP_VS_PROTO_TCP=y
CONFIG_IP_VS_PROTO_UDP=y
CONFIG_IP_VS_PROTO_AH_ESP=y
CONFIG_IP_VS_PROTO_ESP=y
CONFIG_IP_VS_PROTO_AH=y
CONFIG_IP_VS_PROTO_SCTP=y
#
# IPVS scheduler
#
CONFIG_IP_VS_RR=m
CONFIG_IP_VS_WRR=m
CONFIG_IP_VS_LC=m
CONFIG_IP_VS_WLC=m
CONFIG_IP_VS_FO=m  #(4.18内核新增)
CONFIG_IP_VS_OVF=m  #(4.18内核新增)
CONFIG_IP_VS_LBLC=m
CONFIG_IP_VS_LBLCR=m
CONFIG_IP_VS_DH=m
CONFIG_IP_VS_SH=m
# CONFIG_IP_VS_MH is not set
CONFIG_IP_VS_SED=m
CONFIG_IP_VS_NQ=m

LVS集群术语与简略访问流程图

简略访问流程
  • 访问流程:CIP <–> VIP == DIP <–> RIP

LVS集群术语
  • VS:Virtual Server,Director Server(DS), Dispatcher(调度器),Load Balancer
  • RS:Real Server(lvs), upstream server(nginx), backend server(haproxy)
  • CIP:Client IP VIP:Virtual serve IP VS外网的IP
  • DIP:Director IP VS内网的IP
  • RIP:Real server IP

LVS集群体系架构特性

LVS 功能及组织架构功能

  • 负载均衡的应用场景为高访问量的业务,提高应用程序的可用性和可靠性。

应用于高访问量的业务处理

  • 当实际访问量很高时,可以通过新增LVS服务器配置监听规则将流量分发到不同的云服务器 ECS(Elastic Compute Service 弹性计算服务)实例上。此外,可以使用会话保持功能将同一客户端的请求转发到同一台后端 ECS,LVS并发处理可高达百万级;

扩展应用程序

  • 以根据业务发展的需要,随时添加和移除ECS实例来扩展应用系统的服务能力,适用于各种Web服务 器和App服务器。

消除单点故障

  • 可以在负载均衡实例下添加多台ECS实例。当其中一部分ECS实例发生故障后,负载均衡会自动屏蔽故障 的ECS实例,将请求分发给正常运行的ECS实例,保证应用系统仍能正常工作

同城容灾(多可用区域容灾)

  • 为了提供更加稳定可靠的负载均衡服务,阿里云负载均衡已在各地域部署了多可用区以实现同地域容 灾。当主可用区出现机房故障或不可用时,负载均衡仍然有能力在非常短的时间内(如:大约30s中 断)切换到另外一个备可用区恢复服务能力;当主可用区恢复时,负载均衡同样会自动切换到主可用区 提供服务。

  • 使用负载均衡时,您可以将负载均衡实例部署在支持多可用区的地域以实现同城容灾。此外,建议您结 合自身的应用需要,综合考虑后端服务器的部署。如果您的每个可用区均至少添加了一台ECS实例,那 么此种部署模式下的负载均衡服务的效率是最高的。

  • 如下图所示,在负载均衡实例下绑定不同可用区的ECS实例。正常情况下,用户访问流量将同时转至发 主、备可用区内的ECS实例;当可用区A发生故障时,用户访问流量将只转发至备可用区内的ECS实例。 此种部署既可以避免因为单个可用区的故障而导致对外服务的不可用,也可以通过不同产品间可用区的 选择来降低延迟。

  • 如果采取如下图所示的部署方案,即在负载均衡实例的主可用区下绑定多台ECS实例,而在备可用区没 有任何ECS实例。当主可用区发生故障时会造成业务中断,因为备可用区没有ECS实例来接收请求。这样 的部署方式很明显是以牺牲高可用性为代价来获取低延时。

跨地域容灾

  • 可以在不同地域下部署负载均衡实例,并分别挂载相应地域内不同可用区的ECS。上层利用云解析做 智能DNS,将域名解析到不同地域的负载均衡实例服务地址下,可实现全局负载均衡。当某个地域出现 不可用时,暂停对应解析即可实现所有用户访问不受影响。如下图:


LVS应用场景

音视频大流量场景

  • 对象存储(Object Storage Service,简称OSS),是阿里云对外提供的海量、安全和高可靠的云存储服务
音视频海量流量自动分发
  • 音视频应用中由于用户与主播之间需要实时大量的互动,因此,用户的流量非常大,而直播业务的波峰 波谷效应明显,这对整个系统的弹性、稳定性和可用性带来了巨大的挑战
提高横向扩展能力
  • 添加或删减负载均衡后端的服务器实时生效,可根据业务流量大小实时增减
抵御海量流量
  • 业务发展快,访问流量巨大,负载均衡可对多台云服务器进行流量分发服务
提升应用可用性
  • 负载均衡提供后端服务器的健康检查,实时屏蔽异常服务器,提升系统可用性

网络游戏动静分离场景

动静请求分离,快速稳定交付
  • 游戏业务有很多图片等静态资源需要加载,通过CDN实现全球用户访问静态资源的加速;当用户在游戏 中有互动时,产生的访问流量非常大,此时为了保证互动实时性,需要使用负载均衡进行流量分发
动态请求流量分发
  • 动态请求量大,采用多台云服务器计算处理,并利用负载均衡服务随时进行流量分发
静态请求快速加载
  • 静态内容选择对象存储,接入CDN服务,进一步优化内容分发链路,让内容即刻加载

多层次容灾架构场景

跨地域跨可用区的容灾方案
  • 用户业务遍布各地域,使用云解析DNS将不同地域用户智能解析访问到相应的业务系统内,使用负载均 衡进行海量的访问流量分发,还可构建地域级、可用区级的多层容灾架构
智能解析
  • 智能判断提供最佳的访问解析地址,使访问用户获得最快捷、最流畅的体验
流量分发
  • 业务发展快,访问流量巨大,负载均衡可对多台云服务器进行流量分发服务
多层次容灾
  • 云解析提供跨地域的高可用,负载均衡可实现可用区级的高可用

LVS 工作模式和相关命令

LVS集群工作模式介绍

  • lvs-nat:修改请求报文的目标IP,多目标IP的DNAT
  • lvs-dr:操纵封装新的MAC地址
  • lvs-tun:在原请求IP报文之外新加一个IP首部
  • lvs-fullnat:修改请求报文的源和目标IP(默认内核不支持)
LVS–NAT模式介绍(NAT:网络地址转换)
  • SNAT:从内部网络访问外网,目的为将内部的私有网络地址转换为公网网络地址;
  • DNAT:从外部网络访问内部网络,目的是将外部网络地址转换为内部网络地址访问应用;
NAT网络访问简略图示

LVS-NAT网络说明

本质是多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为某挑出的RS的RIP和 PORT实现转发

  • RIP和DIP应在同一个IP网络,且应使用私网地址;RS的网关要指向DIP
  • 请求报文和响应报文都必须经由Director转发,Director易于成为系统瓶颈
  • 需要开启ip_forward
  • 支持端口映射,可修改请求报文的目标PORT
  • VS必须是Linux系统,RS可以是任意OS系统
  • 数据返回由访问链路返回,单机的LVS主机会成为负载瓶颈
LVS-NAT访问流程说明

LVS-NAT内核工作流程说明

流程说明:

  1. 客户端访问请求经过路由转发至LVS Server
  2. 通过VIP访问到LVS Server
  3. 访问到LVS自带防火墙的PREROUTING链,检查路由表,查看数据报文的目标地址,此时结构为:源地址-CIP,目标地址-VIP
  4. 路由表匹配成功,此时下发至INPUT链,INPUT链匹配LVS规则(需自己配置)转发报文,并修改报文请求,此时报文结构为:源地址-CIP,目标地址-RIP
  5. 最终由POSTROUTING链发出报文,到Real Server服务器;
  6. 返回信息由Real Server通过LVS返回到路由,路由转发到CIP;
  7. 返回成功
LVS–DR模式介绍(DR:直接路由)
  • DR即Direct Routing—直接路由,LVS默认模式,应用最广泛,通过为请求报文重新封装一个MAC首部 进行转发,源MAC是DIP所在的接口的MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址;源 IP/PORT,以及目标IP/PORT均保持不变
  • LVS模式中效率最高的模式,但不可以跨网段,只修改数据链路层信息,不修改网络层信息
NAT网络访问简略图示

LVS–DR网络说明
  • Director和各RS都配置有VIP

  • 确保前端路由器将目标IP为VIP的请求报文发往Director

    • 在前端网关做静态绑定VIP和Director的MAC地址(解决IP冲突问题)
    • 在RS上使用arptables工具
    arptables -A IN -d $VIP -j DROP
    arptables -A OUT -s $VIP -j mangle --mangle-ip-s $RIP
    
    • 在RS上修改内核参数以限制arp通告及应答级别,关闭免费ARP(检查网络中IP冲突)探测功能(apr_announce)与响应功能(arp_ignore)
    /proc/sys/net/ipv4/conf/all/arp_ignore
    /proc/sys/net/ipv4/conf/all/arp_announce
    
  • RS的RIP可以使用私网地址,也可以是公网地址;RIP与DIP在同一IP网络;RIP的网关不能指向DIP,以确保响应报文不会经由Director

  • RS与Director必须在同一个网络中,不可以跨网络(因采用arp广播形式,不可跨路由)

  • 请求报文要经由Director,但响应报文不经由Director,而由RS直接发往Client

  • 不支持端口映射(端口不能修改)

  • 无需开启 ip_forward

  • RS可使用大多数OS系统

  • 报文变化—修改数据链路层信息(MAC地址)不修改网络层信息

LVS–DR访问流程说明

LVS-NAT内核工作流程说明

流程说明:

  1. 客户端访问请求经过路由转发至LVS Server
  2. 通过VIP访问到LVS Server,此时报文结构:源地址-CIP,目标地址-VIP
  3. 访问到LVS自带防火墙的PREROUTING链,检查路由表,查看数据报文的目标地址,此时结构为:源地址-CIP(路由MAC),目标地址-RIP(VIP-MAC)
  4. 路由表匹配成功,此时下发至INPUT链,INPUT链匹配LVS规则,修改mac地址信息,并修改报文请求,此时报文结构为:源地址-CIP(DIP-MAC),目标地址-VIP(RIP-MAC)
  5. 最终由POSTROUTING链发出报文,通过RRP广播找到Real Server服务器,并发送;
  6. Real Server服务器返回完成信息,此时报文结构为:源地址-VIP(RIP-MAC),目标地址CIP(路由-MAC)
  7. 路由接收到请求后,修改报文信息,此时报文结构为:源地址-VIP(VIP-MAC),目标地址CIP(路由-MAC)
  8. 成功返回
LVS–TUN模式介绍(TUN:网络隧道)
  • TUN即隧道转发方式:不修改请求报文的IP首部(源IP为CIP,目标IP为VIP),而在原IP报文之外再封装一个IP首部
    (源IP是DIP,目标IP是RIP),将报文发往挑选出的目标RS;RS直接响应给客户端(源IP是VIP,目标IP
    是CIP)
NAT网络访问简略图示

LVS–TUN网络说明
  • RIP和DIP可以不处于同一物理网络中,RS的网关一般不能指向DIP,且RIP可以和公网通信。也就是
    说集群节点可以跨互联网实现。DIP, VIP, RIP可以是公网地址
  • RealServer的tun接口上需要配置VIP地址,以便接收director转发过来的数据包,以及作为响应的
    报文源IP
  • Director转发给RealServer时需要借助隧道,隧道外层的IP头部的源IP是DIP,目标IP是RIP,而
    RealServer响应给客户端的IP头部是根据隧道内层的IP头分析得到的,源IP是VIP,目标IP是CIP
  • 请求报文要经由Director,但响应不经由Director,响应由RealServer自己完成
  • 不修改原始的网络层与传输层信息,只新增报文头部,所以不支持端口映射与端口修改;
  • RS的OS须支持隧道功能
LVS–TUN访问流程说明

LVS-TUN内核工作流程说明

流程说明:

  1. 客户端发送请求经过路由A到达LVS;
  2. LVS内部由PREROUTING链,检查路由表B,查看数据报文的目标地址,并转发到INPUT链;此时报文结构:CIP、VIP
  3. INPUT链接收到请求后,根据访问地址,修改报头信息,新增报文头部DIP、RIP(目的);此时报文结构:DIP、RIP、CIP、VIP
  4. 由PREROUTING链转发到对应的路由B,这时路由根据RIP与VIP的对应关系查询路由表,确认RealServer所在的路由C,转发至对应路由;此时报文结构:DIP、RIP、CIP、VIP
  5. 此时路由C解开报文,并删除新增的报文头部,核对路由表识别其CIP与VIP的对应关系,转发至对应的RealServer中;
  6. 最终返回客户端;此时报文结构:CIP、VIP
LVS三种模式应用场景说明
  • 一般来说,TUN模式常会用来负载调度缓存服务器组,这些缓存服务器一般放置在不同的网络环境,可以就近折返给客户端。在请求对象不在Cache服务器本地命中的情况下,Cache服务器要向源服务器发送请求,将结果取回,最后将结果返回给用户。
  • LAN环境一般多采用DR模式,WAN环境虽然可以用TUN模式,但是一般在WAN环境下,请求转发更多的被haproxy/nginx/DNS等实现。因此,TUN模式实际应用的很少,跨机房的应用一般专线光纤连接或DNS调度
LVS–FULLNAT模式
  • LVS的Kernel默认不支持,需要修改LVS的Kernel源代码实现,了解即可
LVS–FULLNAT网络模型

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-wu3FqV8X-1660812585153)(ImageDB/image-20220814225919317.png)]

通过同时修改请求报文的源IP地址和目标IP地址进行转发
CIP --> DIP
VIP --> RIP

fullnat模式特点
  1. VIP是公网地址,RIP和DIP是私网地址,且通常不在同一IP网络;因此,RIP的网关一般不会指向
    DIP
  2. RS收到的请求报文源地址是DIP,因此,只需响应给DIP;但Director还要将其发往Client
  3. 请求和响应报文都经由Director
  4. 相对NAT模式,可以更好的实现LVS-RealServer间跨VLAN通讯
  5. 支持端口映射

LVS工作模式的总结与比较

NAT TUN DR
Real Server any(所有类型主机) 主机需要支持Tunneling 关闭Kernel参数Non-arp device
Real server network private(私有) LAN/WAN(广域网/局域网) LAN(局域网)
Real server number low (10~20)
所有响应都需要经过LVS,所以数量不可以太多
High (100)
只有请求报文经过LVS服务器;
High (100)
只有请求报文经过LVS服务器;
Real server gateway load balancer own router Own router
优点 端口转换 WAN 性能最好
缺店 性能瓶颈 要求支持隧道,不支持端口转换 不支持跨网段和端口转换

lvs-nat与lvs-fullnat:

  • 请求和响应报文都经由Director
  • lvs-nat:RIP的网关要指向DIP
  • lvs-fullnat:RIP和DIP未必在同一IP网络,但要能通信

lvs-dr与lvs-tun:

  • 请求报文要经由Director,但响应报文由RS直接发往Client
  • lvs-dr:通过封装新的MAC首部实现,通过MAC网络转发
  • lvs-tun:通过在原IP报文外封装新IP头实现转发,支持远距离通信

LVS的调度算法

根据ipvs scheduler主要分为两个类型
  • 静态方法
  • 动态方法
  • ipvs scheduler:根据其调度时是否考虑各Real server当前的负载状态

静态算法

  1. RR:roundrobin,轮询算法;优点:算法简单,分布均匀,计算资源消耗小;缺点:不考虑后端Real Server服务器负载与计算能力,在后端服务器计算能里与负载不均的场景下会产生瓶颈;
  2. WRR:Weighted RR,加权轮询;RR的升级轮询,按照权重比例分配负载;优点:解决了RR的问题,并增加了对计算资源不均场景下的处理能力;缺点:需要手动指定权重比;
  3. SH:Source Hashing,实现session sticky,源IP地址hash;将来自于同一个IP地址的请求始终发往 第一次挑中的RS,从而实现会话绑定;缺点:如果有地址转换配置(局域网出口一样),可能会导致部分Real Server服务器负载过大;
  4. DH:Destination Hashing;目标地址哈希,第一次轮询调度至RS,后续将发往同一个目标地址的 请求始终转发至第一次挑中的RS,典型使用场景是正向代理缓存场景中的负载均衡,如: Web缓存

动态算法

  • 主要根据每Real Server当前的负载状态及调度算法进行调度Overhead=value 较小的Real Server将被调度
  1. LC:least connections 适用于长连接应用

    Overhead=activeconns*256+inactiveconns
    
  2. WLC:Weighted LC,默认调度方法,较常用

    Overhead=(activeconns*256+inactiveconns)/weight
    数值越小,优先级越高
    缺点:初始连接时,总会发送到权重最低的服务器上;
    
  3. SED:Shortest Expection Delay,初始连接高权重优先,只检查活动连接,而不考虑非活动连接

    Overhead=(activeconns+1)*256/weight
    数值越小,优先级越高
    缺点:计算权重比时,可能会有部分节点低权重的服务器链接过多,导致负载不均;
    
  4. NQ:Never Queue,第一轮均匀分配,后续SED

  5. LBLC:Locality-Based LC,动态的DH算法,使用场景:根据负载状态实现正向代理,实现Web Cache等

  6. LBLCR:LBLC with Replication,带复制功能的LBLC,解决LBLC负载不均衡问题,从负载重的复制 到负载轻的RS,实现Web Cache等

FO和OVF调度算法(内核4.15后支持)

  1. FO(Weighted Fail Over)调度算法

    • 遍历虚拟服务所关联的真实服务器链表,找到还未 过载(未设置IP_VS_DEST_F_OVERLOAD标志)的且权重最高的真实服务器,进行调度,属于静态算法
  2. OVF(Overflow-connection)调度算法
    • 基于真实服务器的活动连接数量和权重值实现。将新连接调度 到权重值最高的真实服务器,直到其活动连接数量超过权重值,之后调度到下一个权重值最高的真实服 务器,在此OVF算法中,遍历虚拟服务相关联的真实服务器链表,找到权重值最高的可用真实服务器。,属 于动态算法

      • 一个真实服务器需满足以下条件

        1. 未过载(未设置IP_VS_DEST_F_OVERLOAD标志)
        2. 真实服务器当前的活动连接数量小于其权重值
        3. 其权重值不为零

LVS软件部署

工具包:ipvsadmin

  • Unit File: ipvsadm.service
  • 主程序:/usr/sbin/ipvsadm
  • 规则保存工具:/usr/sbin/ipvsadm-save
  • 规则重载工具:/usr/sbin/ipvsadm-restore
  • 配置文件:/etc/sysconfig/ipvsadm-config
  • ipvs调度规则文件:/etc/sysconfig/ipvsadm

ipvsadmin命令

ipvsadmin核心功能
  • 集群服务器节点管理:增加、删除、修改
  • 集群服务的Real server管理:增加、删除、修改
  • 查看集群信息
命令格式

集群管理:

ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]]

Real server管理:

ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight]
常用选项
- C  #清空
- R     #重载,相当于ipvsadmin-restore
- S     #保存,相当于ipvsadmin-save
- A     #新增LVS集群
- t     #配合-A使用,表示TCP端口
- u     #配合-A使用,表示udp端口
- f     #配合-A使用,表示mark,标记,一个数字
- s     #配合-A使用,指定集群的调度算法,默认为wlc
- p     #配合-A使用,指定连接超时时间
- m #配合-A使用,掩码
- a     #添加Real server服务器到LVS集群中
- r     #配合-a使用,Real server服务器的IP地址
- g #配合-a使用,DR工作模式
- i     #配合-a使用,TUN工作模式
- m     #配合-a使用,NAT工作模式
- w     #配合-a使用,权重比
命令说明
#管理集群服务
ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]] [-M netmask]
[--pe persistence_engine] [-b sched-flags]
ipvsadm -D -t|u|f service-address #删除
ipvsadm –C #清空
ipvsadm –R #重载,相当于ipvsadm-restore
ipvsadm -S [-n] #保存,相当于ipvsadm-save#管理集群中的RS
ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight]
ipvsadm -d -t|u|f service-address -r server-address
ipvsadm -L|l [options]
ipvsadm -Z [-t|u|f service-address]
管理集群服务
service-address:
-t|u|f:-t: TCP协议的端口,VIP:TCP_PORT 如: -t 10.0.0.100:80-u: UDP协议的端口,VIP:UDP_PORT-f:firewall MARK,标记,一个数字
[-s scheduler]:指定集群的调度算法,默认为wlc
Real server管理
server-address:rip[:port] 如省略port,不作端口映射
选项:
lvs类型:-g: gateway, dr类型,默认-i: ipip, tun类型-m: masquerade, nat类型
-w weight:权重
常用路径
  1. ipvs规则

    /proc/net/ip_vs
    
  2. ipvs连接

    /proc/net/ip_vs_conn
    
  3. 保存

    #建议保存至/etc/sysconfig/ipvsadm
    ipvsadm-save > /PATH/TO/IPVSADM_FILE
    ipvsadm -S > /PATH/TO/IPVSADM_FILE
    systemctl stop ipvsadm.service  #会自动保存规则至/etc/sysconfig/ipvsadm
    
  4. 重载

    ipvsadm-restore < /PATH/FROM/IPVSADM_FILE
    systemctl  start ipvsadm.service  #会自动加载/etc/sysconfig/ipvsadm中规则
    
命令使用范例
管理集群服务

增加

ipvsadm -A -t 10.0.0.100:80 -s wrr

修改

ipvsadm -E -t 10.0.0.100:80 -s wrr

删除

ipvsadm -D -t 10.0.0.100:80
管理Real server

增加

ipvsadm -a -t 10.0.0.100:80 -r 10.0.0.8:8080 -m -w 3

修改

ipvsadm -e -t 10.0.0.100:80 -r 10.0.0.8:8080 -m -w 3

删除

ipvsadm -d -t 10.0.0.100:80 -r 10.0.0.8:8080

通用命令

清空定义的所有内容

ipvsadmin -c

情况计数器

ipvsadm -Z [-t|u|f service-address]

查看集群信息

ipvsadm -L|l [options]
--numeric, -n:以数字形式输出地址和端口号
--exact:扩展信息,精确值
--connection,-c:当前IPVS连接输出
--stats:统计信息
--rate :输出速率信息

防火墙标记


LVS实验案例

1.LVS-NAT实验

实现环境
主机名称 功能 IP地址 网络类型 网关 软件
ClentOS 客户机 192.168.213.190/24 仅主机 curl
LVS_Sever LVS主机 192.168.213.121/16
172.168.213.121/24
仅主机
NAT
172.168.213.121
Real server01 Real server 172.168.213.122/24 NAT 172.168.213.121
Real server02 Real server 172.168.213.123/24 NAT 172.168.213.121
环境图示
操作步骤
#1.配置网络
#2.开启ip_forwardecho net.ipv4.ip_forward = 1 >> /etc/sysctl.confsysctl -p
#3.配置LVS集群ipvsadm -A -t 192.168.213.121:80 -s rr
#4.给LVS集群增加Real serveripvsadm -a -t 192.168.213.121:80 -r 172.168.213.122:80 -mipvsadm -a -t 192.168.213.121:80 -r 172.168.213.123:80 -m
#5.保存规则ipvsadm -Sn > /etc/sysconfig/ipvsadm
#6.启动服务systemctl enable --now ipvsadm.service
一键部署-shell
#!/bin/bash
source /etc/init.d/functions
#申明数组
declare -A LVS_nat
#网卡名称
LVS_nat=( [eth0]="172.168.213.122" [eth1]="192.168.213.122" )
Real_Server=( [0]="192.168.213.123" [1]="192.168.213.124" )
Server_port=80
#NAT架构,支持模式:rr,wrr,sh,dh
lvs_mod=rr#LVS配置
function conf_lvs ()
{#软件安装if ! rpm -qa |grep -q -i ipvsadm ;thenyum -q -y install ipvsadm || { action "仓库不可用";exit; }fi#新增/修改IPfor i in ${!LVS_nat[*]};doif nmcli con show |grep -q "$i";thennmcli con modify  "$i" ipv4.add "${LVS_nat[$i]}"/24 gw4 "${LVS_nat[$i]}" ipv4.method manual nmcli con up "$i"elsenmcli con add ifname "$i" con-name "$i" ipv4.add "${LVS_nat[$i]}"/24 gw4 "${LVS_nat[$i]}" ipv4.method manual type ethernetnmcli con up "$i"fidone#开启路由转发sysctl -p |grep -q "net.ipv4.ip_forward = 1" || echo net.ipv4.ip_forward = 1 >> /etc/sysctl.conf#创建lvs集群ipvsadm -A -t "${LVS_nat[eth0]}":"$Server_port" -s "$lvs_mod"#添加Read Serverfor ((i=0;i<${#Real_Server[@]};i++));doipvsadm -a -t "${LVS_nat[eth0]}":"$Server_port" -r "${Real_Server[$i]}" -mdone#保存规则ipvsadm -Sn > /etc/sysconfig/ipvsadm#启动服务systemctl enable --now ipvsadm.service &> /dev/nullsystemctl start ipvsadm.service && action "LVS服务启动"
}#Read Server配置
function conf_ReadServer()
{c=0for ((i=0;i<${#Real_Server[@]};i++));do(( c++ ))read -r -s -p"请输入密码Real_Server0$c:" PASSWDsshpass -p "$PASSWD" ssh "${Real_Server[$i]}" "nmcli con modify eth0 ipv4.add ${Real_Server[$i]}/24 gw4 ${LVS_nat[eth1]};nmcli con up eth0yum -q -y install httpd && systemctl enable --now httpd;hostname -I >> /var/www/index.html;" done
}conf_lvs
conf_ReadServer

2.LVS-DR(单网段)实验

实验环境
主机名称 功能 IP地址 网络类型 网关 软件
ClentOS 客户机 172.168.213.120/24 仅主机 172.168.213.124 curl
Route 路由器 172.168.213.124/16
192.168.213.124
仅主机
NAT
172.168.213.124
LVS_Sever LVS主机 172.168.213.190
192.168.213.121/24
NAT 172.168.213.124
Real server01 Real server 192.168.213.122/24 NAT 192.168.213.124
Real server02 Real server 192.168.213.123/24 NAT 192.168.213.124
简略图示

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-0cHvkda5-1661437782705)(ImageDB/image-20220822220739034.png)]

操作步骤
  1. 步骤一:部署客户机和路由器

    #客户端主机配置网络
    nmcli con modify eth0 ipv4.add 172.168.213.190/24 gw4 172.168.213.124
    yum -y install curl #安装软件#路由器配置网络
    echo 'net.ipv4.ip_forward=1' >> /etc/sysctl.conf  #开启转发功能
    sysctl -p
    nmcli con modify eth0 ipv4.add 172.168.213.124/24 #外网
    nmcli con modify eth1 ipv4.add 192.168.213.124/24 #内网
    nmcli con up eth0
    nmcli con up eth1
    
  2. 步骤二:部署Real server

    #关闭Real server服务器的arp功能
    echo 1 >/proc/sys/net/ipv4/conf/all/arp_ignore #关闭总的arp
    echo 1 >/proc/sys/net/ipv4/conf/lo/arp_ignore  #关闭lo网卡的arp
    echo 2 >/proc/sys/net/ipv4/conf/all/arp_announce
    echo 2 >/proc/sys/net/ipv4/conf/lo/arp_announce
    #配置lo网卡的IP地址
    ifconfig lo:1 172.168.213.121/32    #添加VIP
    #配置IP
    nmcli con modify eth0 pv4.add 192.168.213.123/24 gw4 172.168.213.124
    nmcli con modify eth0 pv4.add 192.168.213.124/24 gw4 172.168.213.124
    
  3. 步骤三:部署LVS

    #安装软件
    yum -y install ipvsadm
    #配置IP
    nmcli con modify eth0 ipv4.add 192.168.213.122/24 gw4 172.168.213.124
    #部署LVS主机
    ifconfig lo:1 172.168.213.121/32    #添加VIP
    #创建LVS集群
    ipvsadm -A -t 172.168.213.121:80 -s rr
    #添加Real Server主机
    ipvsadm -a -t 172.168.213.121:80 -r 172.168.213.123:80 -g
    ipvsadm -a -t 172.168.213.121:80 -r 172.168.213.124:80 -g
    #保存规则
    ipvsadm -Sn > /etc/sysconfig/ipvsadm
    #开启服务
    systemctl enable --now ipvsadm.service
    
一键部署-shell
#!/bin/bash
source /etc/init.d/functions
declare -A LVS_IP
#控制IP
LVS_Cont=192.168.213.121
Route_Cont=192.168.213.124
Real_Server_Cont=( [0]=192.168.213.123 [1]=192.168.213.124 )
#服务IP
Routre_IP=( [0]=172.168.213.124 [1]=10.1.1.124 )
LVS_IP=( [VIP]=172.168.213.121 [DIP]=10.1.1.122 )
Real_Server=( [0]=10.1.1.123 [1]=10.1.1.124 )
Net_Url=/etc/sysconfig/network-scripts
Prefix=24
#DR架构,支持模式:rr,wrr,sh,wcl
lvs_mod=wrr
Weight=3#远端网卡名称
function RS_Nat()
{sshpass -p "redhat" ssh "${Real_Server_Cont[0]}" ifconfig | sed -rn 's/^(.*):[[:space:]]+.*/\1/p'
}function Router_Nat()
{sshpass -p "redhat" ssh "$Route_Cont" ifconfig | sed -rn 's/^(.*):[[:space:]]+.*/\1/p'
}
#LVS网卡名称
function LVS_Nat()
{shpass -p "redhat" ssh "$LVS_Cont" ifconfig | sed -rn "s/^(.*):[[:space:]]+.*/\1/p"
}
#关闭Real_Server服务器内核arp功能
function touch_arp_on_off()
{echo "
function arp_on_off()
{case  $arp inoff)echo 1 >/proc/sys/net/ipv4/conf/all/arp_ignore #关闭总的arpecho 1 >/proc/sys/net/ipv4/conf/lo/arp_ignore  #关闭lo网卡的arpecho 2 >/proc/sys/net/ipv4/conf/all/arp_announce echo 2 >/proc/sys/net/ipv4/conf/lo/arp_announce;;on)echo 0 >/proc/sys/net/ipv4/conf/all/arp_ignore echo 0 >/proc/sys/net/ipv4/conf/lo/arp_ignore  echo 0 >/proc/sys/net/ipv4/conf/all/arp_announceecho 0 >/proc/sys/net/ipv4/conf/lo/arp_announce;;*)acttion "Warning:Unsupported input" falsereturn;;esac
}
arp_on_off" > /root/arp.sh
sed -ri "/^$/d" /root/arp.sh
}#安装Router
function Deploy_Router()
{#网络配置,只是用前两张网卡c=0for i in $(Route_Nat|head -2);dosshpass -p "redhat" ssh -n "$Route_Cont" "nmcli con modify $i ipv4.add ${Routre_IP[$c]}/$Prefix;cp -p  $Net_Url-ifcfg-$i $Net_Url/ifcfg-$i.bak;sed -ri 's/^GATEWAY=.*//g' $Net_Url/ifcfg-$i;nmcli con reload $i;systemctl restart network.service && actoin "Configuring Route Node";sysctl -p |grep -q 'net.ipv4.ip_forward = 1' || echo 'net.ipv4.ip_forward = 1' >> /etc/sysctl.conf; "(( c++ ))done}#安装LVS节点
function Deploy_LVServer()
{#软件ipvsadm安装ssh -p "redhat" ssh -n "$LVS_Cont" "yum -q -y install ipvsadm"#IP配置:这里只取第一张网卡,配置DIPfor i in $(LVS_Nat|head -1);dosshpass -p "redhat" ssh -n "$LVS_Cont" "cp -p  $Net_Url-ifcfg-$i $Net_Url-ifcfg-$i.baknmcli con modify $i ipv4.add ${LVS_IP[DIP]}/$Prefix  gw4 ${Routre_IP[1]}nmcli con restart $i"done#配置VIP,并保存ssh -p "redhat" ssh -n "$LVS_Cont" "ifconfig lo:1 ${LVS_IP[VIP]}/32echo \"ifconfig lo:1 ${LVS_IP[VIP]}/32\" >> /etc/rc.d/rc.local"#创建LV Server集群ipvsadm -A -t :80 "${LVS_IP[DIP]}" -s $lvs_modfor ((i=0;i<${#Real_Server[@]};i++));dossh -p "redhat" ssh -n "$LVS_Cont" "ipvsadm -a -t ${LVS_IP[DIP]}:80 -r  ${Real_Server[$i]}:80 -g -w $Weight"done#保存,并启动服务ssh -p "redhat" ssh -n "$LVS_Cont" "ipvsadm -Sn > /etc/sysconfig/ipvsadmsystemctl enable --now ipvsadm.service || systemctl restart ipvsadm.service"
}#安装Read Server
function Deploy_RS()
{arp=notouch_arp_on_offfor ((i=0;i<${#Real_Server_Cont[@]};i++));dosshpass "redhat" ssh "${Real_Server_Cont[$i]}" "ifconfig lo:1 ${LVS_IP[VIP]}/32echo \"ifconfig lo:1 ${LVS_IP[VIP]}/32\" >> /etc/rc.d/rc.localbash" < /root/arp.shdone}RS_Nat
Router_Nat
LVS_Nat
touch_arp_on_off
Deploy_Router
Deploy_LVServer
Deploy_RS

LVS调度器(未完成)相关推荐

  1. 11.LVS调度器详解

    1. 集群和分布式 系统性能扩展方式: scale up:垂直扩展,向上扩展,增强,性能更强 scale out:水平扩展,向外扩展,增加设备,并行的运行多个服务调度分配问题,cluster 1.1 ...

  2. 用ansible自动化搭建web、sql服务器、lvs调度器

    一.服务器角色 二.部署ansible 1.ansible简介 ansible是新出现的自动化运维工具,基于Python开发,集合了众多运维工具(puppet.cfengine.chef.func.f ...

  3. lvs负载均衡调度器

    lvs简介 lvs(Linux Virtual Server):linux虚拟服务器.它是一款强大的基于ip的数据请求负载均衡调度器:终端互联网用户从外部访问公司的外部负载均衡服务器,终端用户的Web ...

  4. LVS集群---做前端调度器搭建使用

    LVS集群--->在这里做前端调度器搭建使用,工作模式用的LVS-nat和LVS-dr. ++++++++++++++++++++++++++++++++++++++++++++++++++++ ...

  5. Akka 指南 之「调度器」

    温馨提示:Akka 中文指南的 GitHub 地址为「akka-guide」,欢迎大家Star.Fork,纠错. 文章目录 调度器 依赖 简介 默认调度器 查找调度器 为 Actor 设置调度器 调度 ...

  6. Web 负载调度器 haproxy

    文章目录 一.Web集群调度器 1.常用的Web集群调度器 2. Haproxy应用分析 3. Haproxy的主要特性 4. 常用集群调度器的优缺点 5. LVS.Nginx.Haproxy的区别 ...

  7. Zabbix(六):项目实战之--自动发现nginx调度器及后端web服务集群、自定义参数监控...

    项目: 1.自动发现nginx调度器及后端apache构建的web服务集群: 2.使用自定义参数监控调度器上nginx服务的相关统计数据及速率数据: 3.使用自定义参数监控后端apache服务的相关统 ...

  8. Quartz定时任务学习(四)调度器

    org.quartz.Scheduler 类层次 作为一个 Quartz 用户,你要与实现了 org.quartz.Scheduler 接口的类交互.在你调用它的任何 API 之前,你需要知道如何创建 ...

  9. golang源码分析:调度器chan调度

    golang调度机制chan调度 golang的调度策略中,碰见阻塞chan就会将该chan放入到阻塞的g中,然后再等待该chan被唤醒,这是golang调度器策略的主动调度策略之一,其中还有其他的主 ...

最新文章

  1. make太慢了,加快编译速度的方法 make -j
  2. python字典键操作
  3. c语言博客作业02--循环结构
  4. 合并远程仓库到本地_Git工作区、暂存区、本地仓库和远程仓库科普
  5. bzoj3339 Rmq Problem
  6. boost::stl_interfaces模块实现最小的随机访问迭代器的测试程序
  7. Hibernate的拦截器和监听器 .
  8. 《自卑与超越》读书笔记(part6)--职业有些时候成为了人们逃避爱情和社会问题的借口
  9. 星期五基准功能Java
  10. 成对的歌曲,其总持续时间可被60整除
  11. [BZOJ 4300]绝世好题
  12. 你以为工厂模式很简单,可能是因为你懂的只是冰山的一角
  13. 同网段DHCP配置实验
  14. c语言计算日期天数,关于计算两个日期间天数的代码,大家来看看
  15. 大数据分析关键的5个思维
  16. 9.2NOIP模拟题
  17. dwr 例外被抛出且未被接住 engine.js
  18. K-median 算法
  19. 【转】word公式大括号左对齐
  20. Windows 2008 Server R2 桌面体验

热门文章

  1. ns-3中的数据跟踪与采集——Tracing系统综述及fourth脚本
  2. 基于5G的ATG组网形式及容量研究
  3. 关于高版本数据库导入到低版本数据库时间的一些注意事项
  4. 定语从句------六级
  5. 鼠标右击菜单,快捷键无法截到菜单栏
  6. vin 码识别 java代码
  7. Microsoft Visual Studio 2019 下载与离线安装教程
  8. React Native - 使用CameraRoll将图片保存到本地相册
  9. 计算机平面设计大师作品,「Adobe国际认证」再优秀的设计师,也无法避免的 9 个,平面设计错误...
  10. 【C++】Breaking Dependencies: The SOLID Principles - Klaus Iglberger - CppCon 2020 -知识点目录