负载均衡调度器--LVS

文章目录

  • 集群和分布式
    • 集群
    • 分布式
  • LVS介绍
    • LVS特点
    • LVS工作原理
    • LVS集群架构
  • LVS集群中的术语
    • CIP
    • VIP
    • RS
    • DIP
    • RIP
  • LVS集群的工作模式
    • NAT模式
    • DR模式
      • DR的工作原理
      • DR的特点:
      • DR的网络配置
        • 1.配置负载均衡器
        • 2.配置后端服务器
          • lo接口的作用
        • 3.测试连接:
      • DR的典型应用场景
    • TUN模式
  • LVS调度算法
  • LVS相关软件
    • ipvsadm 命令
      • 管理集群服务:增、改、删
      • 管理集群上的RS:增、改、删
    • 创建集群
  • NAT模式案例
  • DR模式单网段案例
  • 面试题
    • 1.LVS会监听VIP相关的端口吗

在这里插入图片描述
LVS(Linux Virtual Server)即Linux虚拟服务器,是由章文嵩博士主导的开源负载均衡项目,目前LVS已经被集成到Linux内核模块中。

LVS 在大型网站和服务集群中应用广泛,是一种可靠的负载均衡解决方案。通过不同的工作模式和负载均衡算法,LVS 能够灵活地适应各种网络环境和应用需求。

集群和分布式

集群

集群:同一个业务系统,部署在多台服务器上。集群中,每一台服务器实现的功能没有差别,数据和代码都是─样的。

分布式

分布式:一个业务被拆成多个子业务,或者本身就是不同的业务,部署在多台服务器上。分布式中,每一台服务器实现的功能是有差别的,数据和代码也是不一样的,分布式每台服务器功能加起来,才是完整的业务。

分布式常见应用
  1.分布式应用--服务按照功能拆分,使用微服务
  2.分布式静态资源--静态资源放在不同的存储集群上
  3.分布式数据和存储--使用key-value缓存系统
  4.分布式计算--对特殊业务使用分布式计算,比如Hadoop集群

分布式是以缩短单个任务的执行时间来提升效率的,而集群则是通过提高单位时间内执行的任务数来提升效率。

对于大型网站,访问用户很多,实现一个群集,在前面部署一个负载均衡服务器,后面几台服务器完成同一业务。如果有用户进行相应业务访问时,负载均衡器根据后端哪台服务器的负载情况,决定由给哪一台去完成响应,并且一台服务器垮了,其它的服务器可以顶上来。分布式的每一个节点,都完成不同的业务,如果一个节点垮了,那这个业务可能就会失败。
在这里插入图片描述

LVS介绍

LVS: (Linux Virtual Server),是全球最流行的四层负载均衡开源软件,内核集成,由章文嵩博士(当前阿里云产品技术负责人)在1998年5月创立,可以实现LINUX平台下的负载均衡。

LVS是 基于linux netfilter框架实现(同iptables)的一个内核模块,名称为ipvs;其钩子函数分别HOOK在LOCAL_IN和FORWARD两个HOOK点

LVS是一种用于实现高可用性和负载均衡的技术。LVS 可以将客户端请求分配到多个后端服务器上,形成一个虚拟的服务器集群,从而提高系统的可用性、扩展性和性能。LVS 常用于负载均衡 Web 服务器、邮件服务器、数据库服务器等应用。

LVS官网:
http://www.linuxvirtualserver.org/

阿里SLB:
https://developer.aliyun.com/article/1803
https://github.com/alibaba/LVS

阿里的四层SLB(ServerLoad Balance)是基于LVS+keepalived实现。

LVS特点

LVS特点:
  1.高可用性: LVS通过将流量分配到多个后端服务器,实现了单点故障的容错能力。如果某个服务器故障,流量可以自动转移到其他服务器。
  2.负载均衡: LVS支持多种负载均衡算法,可以根据不同的策略(如轮询、最少连接等)将流量合理地分配到后端服务器。
  3.透明性: 对客户端来说,LVS集群表现为一个单一的虚拟服务器,后端服务器对客户端是透明的。
  4.扩展性: LVS集群可以通过增加后端服务器来扩展系统的处理能力。
  5.低开销: LVS运行在内核空间中,效率高,性能损失低,适合处理大量的网络连接。

LVS工作原理

LVS根据请求报文的目标IP和目标协议及端口将其调度转发至某RS,根据调度算法来挑选RS。LVS是内核级功能,工作在INPUT链的位置,将发往INPUT的流量进行“处理”。

查看内核支持LVS

ls /boot/
grep -i ipvs /boot/config-5.4.0-182-generic

在这里插入图片描述

root@ka1:~# grep -i ipvs -C 20 /boot/config-5.4.0-182-generic 
......(此处省略部分内容)
CONFIG_NETFILTER_XT_MATCH_IPVS=m
......
CONFIG_NETFILTER_XT_MATCH_POLICY=m

......

#
# IPVS transport protocol load balancing support
#
CONFIG_IP_VS_PROTO_TCP=y
CONFIG_IP_VS_PROTO_UDP=y
CONFIG_IP_VS_PROTO_AH_ESP=y
CONFIG_IP_VS_PROTO_ESP=y
CONFIG_IP_VS_PROTO_AH=y
CONFIG_IP_VS_PROTO_SCTP=y

#
# IPVS scheduler
#
CONFIG_IP_VS_RR=m
CONFIG_IP_VS_WRR=m
CONFIG_IP_VS_LC=m
CONFIG_IP_VS_WLC=m
CONFIG_IP_VS_FO=m
CONFIG_IP_VS_OVF=m
CONFIG_IP_VS_LBLC=m
CONFIG_IP_VS_LBLCR=m
CONFIG_IP_VS_DH=m
CONFIG_IP_VS_SH=m
CONFIG_IP_VS_MH=m
CONFIG_IP_VS_SED=m
CONFIG_IP_VS_NQ=m

#
# IPVS SH scheduler
#
CONFIG_IP_VS_SH_TAB_BITS=8

#
# IPVS MH scheduler
#
CONFIG_IP_VS_MH_TAB_INDEX=12
......

LVS集群架构

在这里插入图片描述

LVS集群中的术语

访问流程: CIP <–> VIP == DIP<–> RIP

CIP

定义

CIP(Client IP)
  是指客户端的IP地址。
  在LVS中,CIP是指向LVS Director发起请求的终端设备的IP地址。CIP是LVS负载均衡过程中的关键因素,
  因为LVS会根据CIP来确定请求的源头,并据此将流量分发到适当的Real Server(实际服务器)。

作用

作用(Role):
  标识客户端: 
    CIP是识别和区分不同客户端请求的重要信息。
    每个请求都会带有CIP,这使得LVS能够追踪请求的来源,并根据CIP来执行负载均衡策略,
    例如在持久性会话(Persistence)场景中,确保同一CIP的请求始终被路由到相同的Real Server。

  决定负载均衡: 
    LVS可以根据CIP来选择负载均衡算法的应用,
    例如基于CIP的最少连接算法(Least Connections with Source IP Hashing),
    在这种情况下,CIP会直接影响LVS选择哪个Real Server来处理请求。

使用场景

使用场景 (Usage Scenarios):

  持久性会话 (Persistence):
    在某些应用场景中,特别是需要保持会话状态的场景(例如电商网站的购物车、用户登录等),
    LVS需要确保同一CIP的所有请求在一定时间内始终分配给同一个Real Server。
    这种机制称为持久性会话,通常通过记录CIP与Real Server的映射关系来实现。
   
  防火墙规则 (Firewall Rules):
    LVS中的CIP也可以用于定义防火墙规则。
    例如,可以基于CIP设置访问控制,允许或拒绝特定的IP地址访问某些资源。这对于提高系统的安全性非常有用。

  负载均衡策略:
    LVS的一些负载均衡算法可能会使用CIP来计算哈希值,以便决定将请求分配给哪个Real Server。
    例如,源地址哈希(Source IP Hashing)算法根据CIP来确定Real Server。
工作模式中的影响 (Impact in Different Modes):

  NAT模式(Network Address Translation):
    在NAT模式下,客户端的请求到达LVS Director时,Director会看到CIP并记录它。
    在请求被转发到Real Server时,CIP可能会被隐藏或替换为DIP,具体取决于配置。
    但Real Server仍然可以通过LVS处理后的数据包看到原始的CIP。
   
  DR模式 (Direct Routing):
    在DR模式下,CIP保持不变,Real Server直接接收到原始的客户端请求,因此Real Server可以直接看到CIP。
    这在持久性会话或日志记录等场景中尤为重要。

  TUN模式 (IP Tunneling):
    在TUN模式下,客户端请求通过IP隧道传输到Real Server,CIP也会保持不变,
    Real Server可以直接使用CIP进行处理和记录。

相关配置

相关配置 (Configuration):
  在LVS的配置中,CIP通常不需要显式配置,因为它是由客户端自动生成并附加到请求中的。
  然而,在配置LVS的持久性会话或防火墙规则时,需要考虑如何处理和利用CIP。

  如果使用持久性会话,LVS通常会建立CIP与Real Server 的映射表,
  以确保来自同一CIP的请求在指定时间内始终分配给同一个Real Server。

示例 (Example):

假设有一个LVS集群配置为DR模式,配置如下:
  VIP: 192.168.100.1
  Real Server: 192.168.100.101, 192.168.100.102
  Client: 203.0.113.5 (CIP)
  
客户端(CIP 为 203.0.113.5)发出一个请求到 VIP 192.168.100.1。
  1.LVS Director会接收请求,并基于CIP决定将请求转发到 Real Server 192.168.100.101 或 192.168.100.102。
  2.Real Server收到请求后,可以看到CIP并据此处理请求。

总结:
CIP 是 LVS 中的重要概念,它标识了客户端的来源,并在 LVS 的负载均衡决策中起着关键作用。理解 CIP 如何在不同的 LVS 工作模式中影响请求的处理和分配,对于优化和管理 LVS 系统非常重要。

VIP

VIP: Virtual serve IP VS外网的IP

定义

VIP (Virtual IP) 
  是指在LVS (Linux Virtual Server) 系统中,对外暴露的虚拟IP地址。
  VIP是客户端访问整个LVS集群的入口IP,客户端的所有请求都会先到达VIP,
  然后由LVS Director根据负载均衡算法将请求转发到后端的实际服务器(Real Servers)。

作用

作用 (Role):
  统一入口: 
    VIP作为LVS集群的对外统一访问点,使得整个服务器集群在外界看来是一个单一的服务器。
    客户端不需要知道后端的Real Servers的具体IP地址,只需通过VIP访问服务。

  负载均衡: 
    VIP LVS进行负载均衡操作的核心。
    当客户端请求到达VIP时,LVS会根据预设的负载均衡算法决定将请求转发给哪个后端的 Real Server(RIP)。

  高可用性: 
    通过VIP,LVS可以实现高可用性。
    当某个Real Server出现故障时,LVS可以自动将流量重定向到其他正常的服务器,而不会中断服务。

使用场景

使用场景 (Usage Scenarios):
  Web服务: 
    在高并发的Web服务中,VIP使得多台Web服务器可以作为一个整体对外提供服务。
    客户端的请求到达VIP后,LVS根据负载均衡算法将请求分发给不同的Web服务器,从而提高服务的并发能力。

  数据库服务: 
    在高可用的数据库集群中,VIP可以作为数据库访问的入口点。
    无论是读写分离还是读写集群,客户端只需要访问 VIP,而LVS会将请求分发给合适的数据库实例。

  防火墙规则: 
    在防火墙配置中,VIP可以被用于定义访问控制策略。
    例如,只允许特定的客户端IP地址访问VIP,以提高系统的安全性。

工作模式中的使用

工作模式中的使用(Usage in Different Modes):
 
  NAT模式(Network Address Translation):
    在NAT模式下,客户端请求首先到达VIP,LVS Director将请求的目标IP地址转换为DIP,并转发给一个Real Server。 
    Real Server 处理请求后,将响应数据发送回 LVS,由 LVS 通过 VIP 返回给客户端。

  DR模式(Direct Routing):
    在DR模式下,VIP 通常配置在LVS Director 和所有Real Servers 上。
    客户端的请求到达VIP后,LVS 修改数据包的MAC地址,将请求直接发送给Real Server,Real Server直接将响应数据返回给客户端。

  TUN模式(IP Tunneling):
    在TUN模式下,VIP作为客户端访问的目标地址,
    LVS使用IP隧道技术将请求转发到地理上分布的Real Server,Real Server处理完请求后直接将响应发送给客户端。

配置VIP

在配置LVS 时,VIP 通常是通过 LVS Director 的网络接口配置的。
管理员可以将 VIP 绑定到指定的网络接口上,从而使 LVS 能够接收客户端的请求。

示例配置:

ifconfig eth0:0 192.168.100.1 netmask 255.255.255.0 up

这里,VIP 192.168.100.1 被配置在 eth0:0 虚拟接口上,用于接收客户端请求。

示例 (Example):

假设有一个 LVS 配置如下:
  VIP: 192.168.100.1
  DIP: 192.168.100.10
  RIP: 192.168.100.101, 192.168.100.102

在这个例子中:
  1.客户端发出请求到VIP 192.168.100.1。
  2.LVS Director接收到请求后,根据配置的负载均衡算法,将请求转发给一个 RIP(例如 192.168.100.101)。
  3.Real Server处理请求,并返回响应数据。响应数据通过VIP传递回客户端(NAT模式下通过LVS转发,DR模式下直接发送)。

与其他 IP 的区别

DIP(Director IP): 
  DIP是LVS Director 用于与内部Real Server通信的IP地址,主要在内部网络中使用。
  而VIP是客户端访问的公共IP地址。

RIP(Real IP): 
  RIP是实际处理请求的服务器的IP地址,只在LVS内部网络中可见。
  VIP是对外暴露的IP,客户端通过VIP访问服务。

总结: VIP 是 LVS 系统中非常重要的概念,它作为 LVS 集群的入口点,使得 LVS 可以实现高效的负载均衡和高可用性。通过配置VIP,多个后端服务器可以作为一个整体对外提供服务,从而增强系统的扩展性和可靠性。

RS

RS: Real Server(lvs), upstream server(nginx), backend server(haproxy)

定义

RS(Real Server) 
  是指在LVS (Linux Virtual Server) 系统中,实际处理客户端请求的后端服务器。
  这些服务器执行具体的应用程序或服务,例如Web服务器、数据库服务器等。
  LVS将客户端的请求分发到这些Real Servers,以实现负载均衡和高可用性。

作用

作用(Role):
  处理请求: 
    RS是真正执行应用逻辑、处理客户端请求并生成响应的服务器。
    当LVS接收到客户端的请求后,会根据预设的负载均衡算法将请求转发给一个或多个RS。

  分担负载: 
    通过将客户端的请求分发到多个RS,LVS可以平衡负载,防止单个服务器过载。
    这样可以提升整体服务的性能和可靠性。

  保证高可用性: 
    RS是实现高可用性的重要部分。
    通过监控和管理多个RS,LVS可以在某个RS发生故障时,自动将流量切换到其他可用的RS,从而避免服务中断。

使用场景

使用场景(Usage Scenarios):
  Web服务: 
    在大规模Web服务中,通常会有多个RS来处理客户端的HTTP 请求。
    LVS将流量分发给这些RS,从而实现高并发的处理能力。

  数据库服务: 
    在分布式数据库系统中,多个RS可以作为数据库节点,通过LVS进行负载均衡,保证数据库服务的高效运行。

  文件存储: 
    对于大规模的文件存储服务,可以通过LVS将上传和下载请求分发给不同的RS,从而提高系统的吞吐量。

工作模式中的使用

工作模式中的使用(Usage in Different Modes):

  NAT模式(Network Address Translation):
    在NAT模式下,客户端的请求首先到达LVS Director,Director将请求转发给一个 RS。
    RS处理请求并将响应发送回LVS Director,再由Director返回给客户端。
    在这个模式下,RS通常不直接与客户端通信,所有流量都通过LVS转发。

  DR模式(Direct Routing):
    在DR模式下,LVS Director将请求转发给RS,而不改变数据包的目标IP地址。
    RS直接响应客户端请求,这种模式减少了LVS的流量处理负担,因此可以处理更高的并发量。
    
  TUN模式(IP Tunneling):
    在TUN模式下,客户端请求通过IP隧道传输到RS,RS处理请求后直接将响应发送给客户端。
    TUN模式允许RS位于不同的网络中,适用于跨地域的服务器集群。

配置 RS

在LVS系统中,RS通过其IP地址(RIP)在配置文件中定义。
管理员可以指定多个RS,并为每个RS设置权重,以控制流量的分配比例。

示例配置

real_server 192.168.100.101 80 {
    weight 1
    TCP_CHECK {
        connect_timeout 3
    }
}
real_server 192.168.100.102 80 {
    weight 2
    TCP_CHECK {
        connect_timeout 3
    }
}

在这个示例中,192.168.100.101 和 192.168.100.102 是两个 RS,
其中 192.168.100.102 的权重更高,因此它将处理更多的请求。

健康检测

健康检测
  1.LVS会定期对RS 进行健康检查,以确保它们处于正常运行状态。
  2.如果某个RS无法响应,LVS会将其从流量分发池中移除,直到它恢复正常为止。
  3.常见的健康检查方法包括TCP检查、HTTP检查等。

示例

假设 LVS 系统的配置如下:
  VIP: 192.168.100.1
  RIP(RS): 192.168.100.101, 192.168.100.102

在这个配置中:
  1.当客户端发出请求到VIP 192.168.100.1 时,LVS Director 接收请求。
  2.LVS Director根据负载均衡算法选择一个RS(例如 192.168.100.101),并将请求转发给它。
  3.这个RS处理请求后,直接或通过LVS将响应返回给客户端(具体取决于工作模式)。

与其他 IP 的区别

VIP(Virtual IP): 
  VIP是LVS集群对外暴露的IP地址,用于接收客户端请求。
  而RS则是实际处理这些请求的服务器。
  
DIP(Director IP): 
  DIP是LVS Director在内部网络中的IP地址,用于与RS进行通信和管理,
  而RS则是用来执行实际的服务任务。
Real Server (RS)
  定义: 实际服务器(Real Server)是LVS后端用于处理客户端请求的真实服务器。
       这些服务器通常运行着实际的应用程序(如Web服务器、数据库服务器等)。
  作用: Real Server负责处理由LVS 转发的请求,并返回响应给客户端。

总结: RS 是 LVS 系统中的核心组成部分,负责处理和响应客户端的请求。通过配置多个 RS,并结合 LVS 的负载均衡功能,可以实现高性能、高可用性的服务架构。理解 RS 的配置和管理是确保 LVS 系统稳定高效运行的关键。

DIP

定义

 DIP: Director IP VS内网的IP
  定义:DIP是指运行LVS的Director服务器在局域网内的IP地址。
       这个IP地址用于与Real Server(实际服务器)通信,并接受客户端请求。
       DIP是Director服务器的一个内部网络接口的IP地址,通常在NAT模式或DR模式中使用。

作用:

 通信中枢: 
     DIP是LVS Director与后端Real Server之间进行通信的主要途径。
     在NAT模式下,Director使用DIP作为源地址与Real Server通信;
     在DR模式下,DIP主要用于管理和监控Real Server的状态。
 
 管理网络: 
     DIP是LVS Director 在内部网络中的身份标识,通常用于内部网络中的管理和控制操作,如健康检查、配置同步等。

 内部流量控制: 
     DIP也可以用于处理LVS相关的内部流量,例如将数据包从VIP转发到Real Server,并在必要时返回数据包给客户端。

工作模式中的使用

NAT模式(Network Address Translation):
  在NAT模式下,DIP作为源IP地址发送数据包给Real Server。
  LVS Director将客户端发送到VIP 的请求转发到Real Server,并使用DIP作为源地址。
  Real Server的响应数据包会先发送到DIP,再由LVS Director转发回客户端。

DR模式(Direct Routing):
  在DR模式下,DIP主要用于监控和管理Real Server 的状态。
  虽然DR模式下的请求是通过修改MAC地址直接转发的,但DIP仍然用于与Real Server保持通信,如健康检查和故障切换操作。

TUN模式(IP Tunneling):
  在TUN模式下,DIP作用较为类似于DR模式,
  主要用于管理和监控Real Server,但实际的客户端请求会通过IP隧道直接发往Real Server。

与 VIP 的区别 (Difference from VIP):

VIP(Virtual IP): 
  VIP是LVS集群对外展示的IP地址,客户端通过VIP访问服务。VIP通常是公开的,可以在互联网或局域网内访问。

DIP(Director IP): 
  DIP是LVS Director 的内部IP地址,用于内部通信和管理。DIP通常不会直接暴露给客户端。

相关配置 (Configuration):

在配置LVS时,DIP是在Director的内部网络接口上配置的IP地址。
根据不同的工作模式,DIP的配置可能会有一些差异。一般情况下,DIP需要与Real Server在同一个子网中,以确保通信的顺畅。

示例 (Example)

假设有一个LVS集群,使用NAT模式,配置如下:
  VIP: 192.168.100.1
  DIP: 192.168.100.10
  Real Server: 192.168.100.101, 192.168.100.102
  
在这种配置中,
  1.客户端请求会先到达VIP(192.168.100.1)
  2.然后由LVS Director 通过DIP(192.168.100.10)将请求转发到其中一个 Real Server(如 192.168.100.101)。
  3.Real Server处理完请求后,将响应发送回DIP,再由LVS Director 返回给客户端。

总结:DIP 是 LVS Director 用于与内部网络中的 Real Server 通信和管理的重要 IP 地址,它是 LVS 系统中不可或缺的组成部分之一。

RIP

定义

RIP (Real IP) 
  是指LVS中后端真实服务器的IP地址。
  也就是实际处理客户端请求的服务器的IP地址。
  在LVS的上下文中,RIP是与Real Server相关的术语,代表这些服务器在内部网络中的身份。

作用

作用(Role):
  标识后端服务器: 
    RIP用于标识每个Real Server 在LVS集群中的位置。
    当LVS Director接收到客户端的请求时,它会根据负载均衡算法将请求转发到指定的RIP对应的服务器。
  
  流量分发: 
    LVS根据配置的负载均衡策略,将客户端请求从VIP转发到一个或多个RIP对应的Real Server。
    每个RIP都是一个潜在的目标服务器,用于处理和响应客户端请求。

使用场景

使用场景 (Usage Scenarios):
  负载均衡:
    LVS的主要功能是将流量分发到多个RIP对应的Real Server,以实现负载均衡。
    通过配置不同的RIP,管理员可以控制流量的分布,并在必要时添加或移除服务器,以应对变化的负载需求。

  故障切换: 
    在LVS中,如果某个RIP对应的Real Server出现故障,
    LVS可以自动将流量切换到其他可用的RIP对应的服务器,以确保服务的持续可用性。这种机制提高了系统的容错能力。

  健康检查: 
    LVS通常会对RIP对应的Real Server进行健康检查,确保这些服务器处于正常运行状态。
    如果某个RIP对应的服务器无法响应,LVS将其暂时从流量分发池中移除,直到其恢复正常。

工作模式中的影响

工作模式中的影响(Impact in Different Modes):
  NAT模式(Network Address Translation):
    在NAT模式下,LVS Director 会将客户端的请求转发给一个RIP对应的Real Server,并修改数据包的源IP地址为DIP。
    Real Server的响应数据包也会返回到 DIP,再由LVS转发给客户端。

  DR模式(Direct Routing):
    在DR模式下,LVS Director直接将数据包发送给RIP对应的Real Server,而不修改数据包的源IP地址。
    Real Server直接将响应数据包发送给客户端。因此在这个模式下,RIP需要与客户端的网络拓扑有一定的关联。

  TUN模式(IP Tunneling):
    在TUN模式下,LVS使用IP隧道将客户端的请求转发到不同网络中的RIP对应的Real Server。
    Real Server 接收到数据包后,处理并直接将响应发送给客户端。

总结: RIP是LVS 系统中后端真实服务器的 IP 地址,是 LVS 进行负载均衡和流量管理的核心要素。理解和配置 RIP有助于优化流量分发、提高系统的可靠性,并确保服务的持续可用性。

VS: Virtual Server, Director Server(DS), Dispatcher(调度器), Load Balancer

LVS集群的工作模式

1.lvs-nat:  修改请求报文的目标IP,多目标IP的DNAT(目的地址转换)
2.lvs-dr:   操纵封装新的MAC地址
3.lvs-tun:  在原请求IP报文之外新加一个IP首部
4.lvs-fullnat: 修改请求报文的源和目标IP,默认内核不支持

参考博客:https://cloud.tencent.com/developer/article/2054205

NAT模式

官方链接:http://www.linuxvirtualserver.org/VS-NAT.html

NAT模式(Network Address Translation):
  在NAT模式下,LVS负载均衡器将客户端请求转发到后端服务器,并将后端服务器的响应数据再转发回客户端。
  LVS充当网络地址转换器,修改数据包的源地址和目的地址。
  
优点: 配置简单,后端服务器只需与LVS处于同一网络。
  
缺点: LVS承担双向流量,易成为性能瓶颈,不适合处理大流量的场景。

在这里插入图片描述
lvs-nat:本质是多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为某挑出的RS的RIP和PORT实现转发

(1)RIP和DIP应在同一个IP网络,且应使用私网地址;RS的网关要指向DIP
(2)请求报文和响应报文都必须经由Director转发,Director易于成为系统瓶颈
(3)支持端口映射,可修改请求报文的目标PORT
(4)VS必须是Linux系统,RS可以是任意OS系统

在这里插入图片描述
在这里插入图片描述
注意:在NAT模式中,LVS既是请求的入口又是响应的出口,负载会比较大,会有性能瓶颈。

DR模式

LVS的DR模式(Direct Routing,直接路由)是LVS最常用的工作模式之一。它的主要特点是,LVS负载均衡器只负责将客户端的请求转发到后端服务器,而响应数据直接由后端服务器返回给客户端,无需再通过负载均衡器。这种方式避免了LVS成为网络瓶颈,能够提高系统的性能和可扩展性。

官方链接:http://www.linuxvirtualserver.org/VS-DRouting.html

DR的工作原理

在LVS-DR模式下,客户端发来的请求会首先到达负载均衡器,负载均衡器根据负载均衡算法(如轮询、加权轮询等)选择一个后端服务器,并将请求转发给该服务器。

DR模式的工作具体过程如下:
  1.客户端请求:
      客户端向负载均衡器发起请求,目标IP是VIP(虚拟IP)。
  
  2.负载均衡器处理:
      LVS负载均衡器接收到发往VIP的请求后,根据调度算法选择一台合适的后端服务器,将请求转发给该服务器。
      
  3.直接路由:
      负载均衡器不会改变请求的目标IP(即VIP不变),只会修改数据链路层的目标MAC地址,指向所选服务器的MAC地址。
      
  4.后端服务器响应:
      后端服务器接收到请求后,直接以VIP为源IP将响应数据发送回客户端,而不再通过LVS负载均衡器。

在这种模式下,LVS处理的是数据包的转发,不涉及数据包内容的修改(除了MAC地址)。由于响应数据不经过LVS,这使得DR模式具有较高的性能和处理能力。
在这里插入图片描述
LVS-DR: Direct Routing(直接路由),LVS默认模式,应用最广泛,通过为请求报文重新封装一个MAC首部进行转发,源MAC是DIP所在的接口的MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址;源IP/PORT,以及目标IP/PORT均保持不变。

DR的特点:

1.Director(负载均衡器)和各RS都配置有VIP

2.确保前端路由器将目标IP为VIP的请求报文发往Director
  2.1在前端网关做静态绑定VIP和Director的MAC地址。
  2.2在RS上使用arptables工具
     arptables -A IN -d $VIP -j DROP
     arptables -A OUT -s $VIP -j mangle --mangle-ip-s $RIP

在RS上修改内核参数以限制arp通告及应答级别
/proc/sys/net/ipv4/conf/all/arp_ignore
/proc/sys/net/ipv4/conf/all/arp_announce

3.RS的RIP可以使用私网地址,也可以是公网地址;RIP与DIP在同一IP网络;RIP的网关不能指向DIP,以确保响应报文不会经由Director

4.RS和Director要在同一个物理网络

5.请求报文要经由Director,但响应报文不经由Director,而由RS直接发往Client

6.不支持端口映射(端口不能修改)

7.无需开启ip_forward

8.RS可使用大多数OS系统

DR的网络配置

配置LVS的DR模式主要涉及以下步骤:

1.配置负载均衡器

LVS负载均衡器配置虚拟IP(VIP),并使用ipvsadm工具设置调度规则:

ip addr add VIP dev eth0  # 配置VIP
ipvsadm -A -t VIP:80 -s rr  # 添加虚拟服务,并选择轮询调度算法
ipvsadm -a -t VIP:80 -r RealServer1_IP -g  # 添加后端服务器,DR模式
ipvsadm -a -t VIP:80 -r RealServer2_IP -g
2.配置后端服务器

在后端服务器上添加VIP到lo接口:

ip addr add VIP dev lo

禁止后端服务器响应ARP请求,防止ARP冲突:

echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce
lo接口的作用

在大多数Linux系统中,lo接口会在系统启动时自动配置。它的默认IP地址是127.0.0.1,并且这个地址通常用于本地回环通信。

在LVS负载均衡的DR模式中,回环接口lo经常用来在后端服务器上绑定VIP(虚拟IP)。这种做法的目的是让后端服务器能够处理发往VIP的请求,但不会响应ARP请求(避免冲突)。例如,后端服务器通过以下命令将VIP绑定到lo接口:

ip addr add VIP dev lo
3.测试连接:

完成配置后,客户端的请求将通过LVS负载均衡器被分发到后端服务器,并且后端服务器将直接将响应数据返回给客户端。
在这里插入图片描述

DR的典型应用场景

高并发Web服务:
  由于DR模式可以有效减轻负载均衡器的压力,特别适合高并发、高流量的Web服务,如大规模的电商网站、社交平台等。
  
视频流媒体服务:
  对于数据量大、并发用户多的场景,如视频点播和直播,DR模式可以极大提高负载均衡性能,提升用户体验。

LVS-DR模式是一种高效的负载均衡方案,适用于需要高性能和大规模扩展的场景。它通过直接路由的方式,让LVS负载均衡器只处理请求调度,而让后端服务器直接返回响应,降低了负载均衡器的网络和计算开销。尽管其对网络拓扑有一定的限制,但在合适的环境中,DR模式能够提供非常优异的性能。

TUN模式

TUN模式(IP Tunneling):
  在TUN模式下,LVS使用IP隧道(IPIP)技术将客户端请求通过隧道发送给后端服务器,
  后端服务器直接将响应数据发送回客户端。适合后端服务器位于不同网络的情况。
  
优点: 支持跨广域网的负载均衡,LVS仅处理入站流量,负载较轻。
  
缺点: 配置较复杂,需要在后端服务器上配置隧道接口。

LVS调度算法

1.轮询(Round Robin): RR,
    轮询将请求依次分配给每个后端服务器,较常用,雨露均沾,大锅饭。

2.加权轮询(Weighted Round Robin): WRR,
    根据每台服务器的权重来分配请求,权重高的服务器分配更多的请求,较常用。

3.源IP地址哈希(Source Hashing): SH,
    实现session sticky,源IP地址hash;将来自于同一个IP地址的请求始终发往第一次挑中的RS,从而实现会话绑定。

4.目标IP地址哈希(Destination Hashing): DH,
    第一次轮询调度至RS,后续将发往同一个目标地址的请求始终转发至第一次挑中的RS,
    典型使用场景是正向代理缓存场景中的负载均衡,如: Web缓存

LVS相关软件

程序包:ipvsadm

yum install -y ipvsadm

在这里插入图片描述
在这里插入图片描述
vim /usr/lib/systemd/system/ipvsadm.service
在这里插入图片描述

ipvsadm 命令

ipvsadm核心功能:
  1.集群服务管理:增、删、改
  2.集群服务的RS管理:增、删、改
  3.查看
[root@rocky ~]# ipvsadm --help
ipvsadm v1.31 2019/12/24 (compiled with popt and IPVS v1.2.1)
Usage:
  ipvsadm -A|E virtual-service [-s scheduler] [-p [timeout]] [-M netmask] [--pe persistence_engine] [-b sched-flags]
  ipvsadm -D virtual-service    删除
  ipvsadm -C                    清空
  ipvsadm -R                    重载,相当于ipvsadm-restore
  ipvsadm -S [-n]               保存,相当于ipvsadm-save
  ipvsadm -a|e virtual-service -r server-address [options]
  ipvsadm -d virtual-service -r server-address
  ipvsadm -L|l [virtual-service] [options]
  ipvsadm -Z [virtual-service]
  ipvsadm --set tcp tcpfin udp
  ipvsadm --start-daemon {master|backup} [daemon-options]
  ipvsadm --stop-daemon {master|backup}
  ipvsadm -h
Commands:
Either long or short options are allowed.
  --add-service     -A        add virtual service with options
  --edit-service    -E        edit virtual service with options
  --delete-service  -D        delete virtual service
  --clear           -C        clear the whole table
  --restore         -R        restore rules from stdin
  --save            -S        save rules to stdout
  --add-server      -a        add real server with options
  --edit-server     -e        edit real server with options
  --delete-server   -d        delete real server
  --list            -L|-l     list the table
  --zero            -Z        zero counters in a service or all services
  --set tcp tcpfin udp        set connection timeout values
  --start-daemon              start connection sync daemon
  --stop-daemon               stop connection sync daemon
  --help            -h        display this help message

virtual-service:
  --tcp-service|-t  service-address   service-address is host[:port]
  --udp-service|-u  service-address   service-address is host[:port]
  --sctp-service    service-address   service-address is host[:port]
  --fwmark-service|-f fwmark          fwmark is an integer greater than zero

管理集群服务:增、改、删

增、改

ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]]

说明

service-address:

-t|u|f:
    -t: TCP协议的端口,VIP:TCP_PORT 如:-t 10.0.0.100:80
    -u: UDP协议的端口,VIP:UDP_PORT
    -f: firewall MARK,标记,一个数字
[-s scheduler]: 指定集群的调度算法,默认为wlc

范例

ipvsadm -A -t 10.0.0.100:80 -s wrr   增
ipvsadm -D -t|u|f service-address    删除

管理集群上的RS:增、改、删

增、改:

ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight]

ipvsadm -d -t|u|f service-address -r server-address

说明

server-address:
    rip[:port] 如省略port,不作端口映射
选项:
lvs类型;
  -g: gateway, dr类型,默认
  -i: ipip, tun类型
  -m: masquerade,nat类型
-w weight: 权重

范例:

ipvsadm -a -t 10.0.0.100:80 -r 10.0.0.8:8080 -m -w 3

创建集群

第一步:创建集群

ipvsadm -A -t 10.0.0.100:80   #ip地址当然要存在,不然路由不可达呀

在这里插入图片描述
第二步:添加后端服务器
在这里插入图片描述

NAT模式案例

在这里插入图片描述
环境准备

共四台主机
  一台:
    internet client: 192.168.10.6/24   Gw:无  仅主机

  一台: lvs
    eth1 仅主机 192.168.10.100/16
    eth0 NAT 10.0.0.8/24
  
  两台RS:
    RS1: 10.0.0.7/24   Gw: 10.0.0.8 NAT
    RS2: 10.0.0.17/24  Gw: 10.0.0.8 NAT

配置过程

[root@internet ~]#cat /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
NAME=eth0
BOOTPROTO=static
IPADDR=192.168.10.6
PREFIX=24
ONBOOT=yes

[root@lvs network-scripts]#cat ifcfg-eth0
DEVICE=eth0
NAME=eth0
BOOTPROTO=static
IPADDR=10.0.0.8
PREFIX=24
ONBOOT=yes
[root@lvs network-scripts]#cat ifcfg-eth1
DEVICE=eth1
NAME=eth1
BOOTPROTO=static
IPADDR=192.168.10.100
PREFIX=24
ONBOOT=yes

[root@rs1 ~]#cat /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
NAME=eth0
BOOTPROTO=static
IPADDR=10.0.0.7
PREFIX=24
GATEWAY=10.0.0.8
ONBOOT=yes
[root@rs2 ~]#cat /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
NAME=eth0
BOOTPROTO=static
IPADDR=10.0.0.17
PREFIX=24
GATEWAY=10.0.0.8
ONBOOT=yes

给rs1和rs2安装上http服务

[root@rs1 ~]#curl 10.0.0.7
10.0.0.7 RS1

[root@rs2 ~]#curl 10.0.0.17
10.0.0.17 RS2

打开ip_forward

[root@lvs-server ~]#vim /etc/sysctl.conf
net.ipv4.ip_forward = 1

[root@lvs-server ~]#sysctl -p
net.ipv4.ip_forward = 1

配置集群,配置real server

[root@lvs-server ~]#ipvsadm -A -t 192.168.10.100:80 -s wrr
[root@lvs-server ~]#ipvsadm -a -t 192.168.10.100:80 -r 10.0.0.7:80 -m
[root@lvs-server ~]#ipvsadm -a -t 192.168.10.100:80 -r 10.0.0.17:80 -m
[root@lvs-server ~]#ipvsadm -Ln
IP virtual server version 1.2.1 (size=4096)
Prot LocalAddress:Port scheduler Flags
  ->RemoteAddress:Port            Forward weight Activeconn InActConn
TCP 192.168.10.100:80 wrr
  ->10.0.0.7:80                   Masq    1      1          0
  ->10.0.0.17:80                  Masq    1      0          0
[root@internet ~]#while :;do curl 192.168.10.100;sleep 0.5; done
rs1.magedu.org
rs2.magedu.org
rs1.magedu.org
rs2.magedu.org
rs1.magedu.org
rs2.magedu.org
[root@lvs-server ~]#ipvsadm -Ln --stats
IP virtual server version 1.2.1 (size=4096)
Prot Loca1Address:Port               Conns   InPkts   outPkts   InBytes   outBytes
  -> RemoteAddress:Port
TCP  192.168.10.100:80                  67     405      255       32436     30092
  -> 10.0.0.7:80                        34     203      128       16244     15072
  -> 10.0.0.17:80                       33     202      127       16192     15020
[root@lvs-server ~]#cat /proc/net/ip_vs
IP virtual Server version 1.2.1 (size=4096)
Prot Loca1Address:Port Scheduler Flags
  -> RemoteAddress:Port Forward weight Activeconn InActConn
TCP COA80A64:0050 wrr
  -> 0A000011:0050      Masq    1     0           98
  -> 0A000007:0050      Masq    1     0           97
[root@lvs-server ~]#ipvsadm -Lnc
IPvs connection entries
pro expire state      source             virtual             destination
TCP 01:55  TIME_WAIT  192.168.10.6:43486 192.168.10.100:80   10.0.0.17:80
TCP 00:19  TIME_WAIT  192.168.10.6:43476 192.168.10.100:80   10.0.0.7:80
TCP 01:58  TIME_WAIT  192.168.10.6:43500 192.168.10.100:80   10.0.0.7:80
TCP 01:58  TIME_WAIT  192.168.10.6:43498 192.168.10.100:80   10.0.0.17:80
TCP 01:59  TIME_WAIT  192.168.10.6:43502 192.168.10.100:80   10.0.0.17:80
[root@1vs-server ~]#cat /proc/net/ip_vs_conn
Pro FromIP   FPrt ToIP     TPrt DestIP   DPrt state      Expires  PEName PEData
TCP COA80A06 A9DE COA80A64 0050 0A000011 0050 TIME_WAIT       72
TCP COA80A06 A9EC COA80A64 0050 0A000007 0050 TIME_WAIT       76
TCP COA80A06 AA64 COA80A64 0050 0A000007 0050 TIME_WAIT      106
TCP COA80A06 AA0C COA80A64 0050 0A000007 0050 TIME_WAIT       84
TCP COA80A06 AA3A COA80A64 0050 0A000011 0050 TIME_WAIT       95
TCP COA80AO6 AA86 COA80A64 0050 0A000011 0050 TIME_WAIT      115
TCP COA80A06 AA78 COA80A64 0050 0A000007 0050 TIME_WAIT      111
TCP COA80A06 AA06 COA80A64 0050 0A000011 0050 TIME_WAIT       82
TCP COA80A06 AA44 COA80A64 0050 0A000007 0050 TIME_WAIT       98
TCP COA80A06 AA2C COA80A64 0050 0A000007 0050 TIME_WAIT       92
#保存规则
[root@lvs-server ~]#ipvsadm -sn > /etc/sysconfig/ipvsadm
[root@lvs-server ~]#systemctl enable --now ipvsadm.service

DR模式单网段案例

在这里插入图片描述
环境准备

环境:五台主机
  一台: 客户端eth0:仅主机 192.168.10.6/24  GW:192.168.10.200
  
  一台: ROUTER
      eth0:NAT 10.0.0.200/24
      eth1:仅主机 192.168.10.200/24
      启用IP_FORWARD
      
   一台: LVS
      eth0: NAT:DIP:10.0.0.8/24 GW:10.0.0.200
       
   两台RS:
      RS1: ethO:NAT:10.0.0.7/24  GW:10.0.0.200
      RS2: eth0:NAT:10.0.0.17/24 GW:10.0.0.200

面试题

1.LVS会监听VIP相关的端口吗

LVS(Linux Virtual Server)本身并不会直接监听VIP(Virtual IP)相关的端口。LVS的核心工作是通过虚拟IP来接收客户端的请求,并根据预设的负载均衡策略将这些请求转发到后端的真实服务器上进行处理。

具体来说,LVS的两个常见工作模式:
  1.NAT模式(Network Address Translation):
    在这种模式下,LVS位于请求路径的中心,它接收来自客户端的请求,并将其通过NAT转发给后端的真实服务器。
    同时,它还会将后端服务器的响应再通过LVS返回给客户端。
    在这个过程中,LVS会处理发往VIP的请求包,并根据转发规则分配给后端服务器。

  2.DR模式(Direct Routing):
    在DR模式下,LVS同样接收发往VIP的请求包,但它不会修改这些包的目标IP,
    而是通过直接路由的方式将请求交给后端服务器。
    后端服务器会直接将响应包发送回客户端,而无需经过LVS。因此,LVS也不会监听VIP的端口,只是负责请求的调度。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/873688.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

新电脑Win11系统想要降级为Win10怎么操作?

前言 现在的电脑大部分都是Windows 11系统&#xff0c;组装机还好一些&#xff0c;如果想要使用Windows 10&#xff0c;只需要在安装系统的时候选择Windows 10镜像即可。 但是对于新笔记本、厂商的成品机、一体机来说&#xff0c;只要是全新的电脑&#xff0c;基本上都是Wind…

评论的组件封装

主评论的人在数组第一层级&#xff0c;回复的评论都在children里面 【{ name:"张三" idGenerator: 475403892531269 info_Conmment":"今天天气晴朗&#x1f600;" children:[ { mainIdGenerator:475388950118469 name:"张三" name1&#x…

揭秘世界上那些同时横跨两大洲的国家

我们在《世界人口过亿的一级行政区分布》盘点全球是那些人口过亿的一级行政区。 现在我们介绍五个横跨两州的国家&#xff0c;并整理七大洲和这些国家的KML矢量数据分析分享给大家&#xff0c;如果你需要这些数据&#xff0c;请在文末查看领取方式。 世界上横跨两大洲的国家 …

2024全开源彩虹晴天多功能系统源码/知识付费系统/虚拟商城系统 完美可用带教程

源码简介&#xff1a; 2024最新彩虹晴天多功能系统源码&#xff0c;知识付费虚拟商城&#xff0c;完美可用&#xff0c;无需授权、国内外服务器皆可搭建、无论是不是备案域名也都可以部署、可以商业运营。 这个源码实用&#xff0c;它不仅完美可用&#xff0c;而且完全免F&am…

CSS之我不会

非常推荐html-css学习视频&#xff1a;尚硅谷html-css 一、选择器 作用&#xff1a;选择页面上的某一个后者某一类元素 基本选择器 1.标签选择器 格式&#xff1a;标签{} <h1>666</h1><style>h1{css语法} </style>2.类选择器 格式&#xff1a;.类…

2024 乐鑫全球开发者大会精选 QA

2024 乐鑫科技全球开发者大会精彩落幕&#xff01;我们在这三天的大会中&#xff0c;收获了来自开发者们的热烈互动和丰富提问。在每晚的“研发主管一对一问答”环节中&#xff0c;来自乐鑫的技术专家们对这些技术问题进行了深入的剖析和详尽的解答。为了让错过这场思想碰撞的观…

百度大模型构建智能问答系统技术实践

背景 随着大模型的飞速发展&#xff0c; AI 技术开始在更多场景中普及。在数据库运维领域&#xff0c;我们的目标是将专家系统和 AI 原生技术相融合&#xff0c;帮助数据库运维工程师高效获取数据库知识&#xff0c;并做出快速准确的运维决策。 传统的运维知识库系统主要采用…

FPGA低功耗设计

FPGA低功耗设计 文章目录 FPGA低功耗设计前言一、功耗类型1.1 动态功耗1.2 静态功耗1.3 浪涌功耗 二、系统级低功耗设计2.1 **多电压技术&#xff1a;**即工作频率、电压和功耗的关系2.2 系统时钟分配&#xff1a;2.3 软硬件划分2.4 p 或单元库选择 三、RTL级别低功耗设计3.1 并…

第10章 中断和动态时钟显示

第10章 中断和动态时钟显示 从本章开始&#xff0c;按照书籍的划分&#xff0c;第10章开始就进入保护模式&#xff08;Protected Mode&#xff09;部分了&#xff0c;感觉从这里开始难度突然就增加了。 书中介绍了为什么有中断&#xff08;Interrupt&#xff09;的设计&#…

jantic/DeOldify部署(图片上色)附带Dockerfile和镜像

克隆代码到DeOldify git clone https://github.com/jantic/DeOldify.git DeOldifyDeOldify源码 安装依赖 这里会安装python以及创建deoldify环境 cd DeOldify conda env create -f environment.yml(base) rootDESKTOP-1FOD6A8:~/DeOldify# conda env create -f environment.ym…

MySQL递归查询

一、为什么要使用MySQL递归查询 在很多场景下有树形表需要去遍历&#xff0c;若通过编程语言去递归遍历树将多次进行与数据库的交互操作&#xff0c;相当于100个葡萄去楼下超市买100次&#xff0c;在路上多走了99次浪费了大量时间&#xff0c;肯定不如一次买100葡萄省事。所以与…

景联文科技:专业数据标注公司,推动AI技术革新

数据标注作为AI技术发展的重要支撑&#xff0c;对于训练高质量的机器学习模型以及推动应用领域的创新具有不可替代的作用。 景联文科技作为专业的数据标注公司&#xff0c;致力于提供专业的数据标注服务&#xff0c;帮助客户解决AI链条中的数据处理难题&#xff0c;共同推动人工…

2024霸王餐小程序cps,h5公众号小程序开源版系统搭建开发,外卖霸王餐小程序系统源码

目录 前言&#xff1a; 一、霸王餐小程序的操作是怎么样的&#xff1f; 二、霸王餐系统后台 三、怎么搭建部署? 前言&#xff1a; 霸王餐项目基于美团和饿了么平台开发的小程序。 一、霸王餐小程序的操作是怎么样的&#xff1f; 1、进入小程序后选择自己要下单的店铺&am…

RTMP播放器延迟最低可以做到多少?

技术背景 RTMP播放器的延迟可以受到多种因素的影响&#xff0c;包括网络状况、推流设置、播放器配置以及CDN分发等。因此&#xff0c;RTMP播放器的延迟并不是一个固定的数值&#xff0c;而是可以在一定范围内变化的。 正常情况下&#xff0c;网上大多看到的&#xff0c;针对R…

华为手机找不到wifi调试?不急,没有wifi调试一样可以进行局域网模式调试

最近小黄在使用uniapp启动无线调试的时候突然发现华为的手机突然找不到wifi调试了&#xff0c;那么我们怎么进行无线调试呢&#xff1f; 其实他只是找不到开关而已&#xff0c;正常使用就行。 1.使用数据线连接手机。 打开cmd命令行执行&#xff1a;adb tcpip 5555 2.再执行ad…

论文120:Giga-SSL: Self-supervised learning for gigapixel images (2023, CVPR, 开源)

文章目录 1 要点2 方法2.1 算法设计2.2 设计选择 1 要点 题目&#xff1a;用于千兆像素图像的自监督学习 (Giga-SSL: Self-Supervised Learning for Gigapixel Images) 代码&#xff1a;https://github.com/trislaz/gigassl 研究目的&#xff1a; 现有的WSI分类方法依赖于有…

云计算之大数据(上)

目录 一、Elasticsearch 1.1 产品组件 1.1.1 X-Pack 1.1.2 Beats数据采集中心 1.1.3 Logstash 1.1.4 Kibana 1.2 架构特性 1.2.1 性能 1.2.2 安全性 1.2.3 可用性 1.2.4 可扩展性 1.2.5 可维护性 1.2.6 国际化 1.3 综合检索分析 1.4 全观测 1.5 大数据检索加速…

PAT甲级-1029 Median

题目 题目大意 给定两个递增序列&#xff0c;求这两个序列合并为一个递增序列后的中位数。 思路 直接用一个数组接收两个数组的输入&#xff0c;然后用sort()暴力求解&#xff0c;也可以过&#xff0c;但是时间复杂度较高。 更好的方法是双指针法&#xff0c;两个数组各一个…

在线plotly绘制动态旭日图,展示复杂数据层次结构

探索数据的层次之美&#xff1a;旭日图&#xff0c;以环环相扣的视觉效果&#xff0c;清晰展现数据的层级关系。搭配Plotly的动态可视化技术&#xff0c;不仅让数据层次一目了然&#xff0c;更通过交互式操作&#xff0c;让用户轻松探索每个层级的详细信息&#xff0c;享受数据…

解决移动端1px 边框优化的8个方法

前言 您是否注意到 1px 边框在移动设备上有时会显得比预期的要粗&#xff1f;这种不一致源于移动屏幕的像素密度不同。 在 Web 开发中&#xff0c;我们使用 CSS 来设置页面样式。但是&#xff0c;CSS 中的 1px 并不总是转换为设备上的物理 1px。这种差异就是我们的“1px 边框…