当前位置: 首页 > news >正文

​HAProxy负载均衡集群概述

前言:

        在现代分布式系统中,负载均衡和高可用性是保障服务稳定性和性能的关键技术。HAProxy 作为一款高性能的 TCP/HTTP 负载均衡器,凭借其轻量级、高并发处理能力和灵活的配置机制,成为构建高可用架构的核心组件之一。通过智能的流量分发和健康检查机制,HAProxy 能够有效提升系统的吞吐能力,同时避免单点故障,确保服务持续可用。本文将简要概述 HAProxy 如何实现负载均衡及高可用,并探讨其在实际场景中的应用价值。

目录

1、HAProxy简介

2、HAProxy特点和优点:

3、HAProxy保持会话的三种解决方法

4、HAProxy的balance 8种负载均衡算法

1)RR(Round Robin)

2)LC(Least Connections)

3)SH(Source Hashing)

4)uri(资源标识符)

5)url_param(资源定位符)

6)rdp—cookie(name)

7) source

8) static-rr

5、HAProxy 主要工作模式

6、HAProxy配置文件参数

6.1、HAProxy 环境

6.1.1、 global 全局配置

6.1.2、 proxy 代理配置

proxies 配置-defaults

7、状态统计功能测试

总结


1、HAProxy简介

官网:HAProxy Technologies | Powering the World's Busiest Applications

HAProxy 是法国人Willy Tarreau开发的一个开源软件,是一款应对客户端10000以上的同时连接的高性能的TCP和 HTTP负载均衡器。其功能是用来提供基于cookie的持久性, 基于内容的交换,过载保护的高级流量管制,自动故障切换 ,以正则表达式为基础的标题控制运行时间,基于Web的报表,高级日志记录以帮助排除故障的应用或网络及其他功能。

HAProxy 提供高可用性、负载均衡以及基于TCP和HTTP的应用代理,支持虚拟主机,它是免费、快速并且可靠的一种负载均衡解决方案。适合处理高负载站点的 七层 数据请求。类似的代理服务可以屏蔽内部真实服务器,防止内部服务器遭受攻击。

2、HAProxy特点和优点:

  1. 支持原生SSL,同时支持客户端和服务器的SSL.

  2. 支持IPv6和UNIX套字节(sockets)

  3. 支持HTTP Keep-Alive

  4. 支持HTTP/1.1压缩,节省宽带

  5. 支持优化健康检测机制(SSL、scripted TCP、check agent…)

  6. 支持7层负载均衡。

  7. 可靠性和稳定性非常好。

  8. 并发连接 40000-50000个,单位时间处理最大请求 20000个,最大数据处理10Gbps.

  9. 支持8种负载均衡算法,同时支持session保持。

  10. 支持虚拟主机。

  11. 支持连接拒绝、全透明代理。

  12. 拥有服务器状态监控页面。

  13. 支持ACL(access control list)。

3、HAProxy保持会话的三种解决方法

HAProxy为了让同一客户端访问服务器可以保持会话。有三种解决方法:客户端IP、Cookie以及Session。

  1. 通过 客户端IP 进行Hash计算并保存,以此确保当相同IP访问代理服务器可以转发给固定的真实服务器。

  2. 依靠真实服务器发送客户端的 Cookie信息 进行会话保持。

  3. 将保存真实服务器的 Session 以及服务器标识 ,实现会话保持。

    (HAProxy只要求后端服务器能够在网络联通,也没有像LVS那样繁琐的ARP配置)

4、HAProxy的balance 8种负载均衡算法

1)RR(Round Robin)

RR算法是最简单最常用的一种算法,即轮询调度

理解举例:有三个节点A、B、C

第一个用户访问会被指派到节点A

第二个用户访问会被指派到节点B

第三个用户访问会被指派到节点C

第四个用户访问继续指派到节点A,轮询分配访问请求实现负载均衡效果

2)LC(Least Connections)

最小连接数算法,根据后端的节点连接数大小动态分配前端请求

理解举例: 有三个节点A、B、C,各节点的连接数分别为A:4 B:5 C:6

第一个用户连接请求,会被指派到A上,连接数变为A:5 B:5 C:6

第二个用户请求会继续分配到A上,连接数变为A:6 B:5 C:6;再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端

由于实际情况下A、B、C的连接数会动态释放,很难会出现一样连接数的情况

此算法相比较rr算法有很大改进,是米钱用到比较多的一种算法

3)SH(Source Hashing)

基于来源访问调度算法,用于一些有Session会话记录在服务端的场景,可以基于来源的IP、Cookie等做集群调度

理解举例 有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第一次访问被指派到了B

当第一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依旧会被指派到B,只要负载均衡器不重启,第一个用户都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度

此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用

4)uri(资源标识符)

表示根据请求的URI,做cdn(内容分发网络)需使用

5)url_param(资源定位符)

表示根据HTTP请求头来锁定每 一 次HTTP请求。

6)rdp—cookie(name)

表示根据据cookie (name)来锁定并哈希每一次TCP请求。

7) source

表示根据请求的源IP,类似Nginx的IP hash机制。

8) static-rr

表示根据权重,轮询

5、HAProxy 主要工作模式

tcp模式:在客户端和服务器之间将建立一个全双工的连接,且不会对7层的报文做任何处理的简单模式。 通常用于SSL、SSH、SMTP等应用层。

http模式(一般使用):客户端请求在转发给后端服务器之前会被深度分析,所有不与RFC格式兼容的请求都会被拒绝。

6、HAProxy配置文件参数

6.1、HAProxy 环境

haproxy的配置文件 haproxy.cfg 的 默认地址:/etc/haproxy/haproxy.cfg 。

haproxy.cfg 由两大部分组成,分别是 global 和 proxies 部分。

global:全局配置:

 进程及安全配置相关的参数性能调整相关参数Debug参数

proxies:代理配置

 defaults:为 frontend, backend, listen提供默认配置frontend:前端,相当于 nginx 中的 server {}backend:后端,相当于 nginx 中的 upstream {}listen:同时拥有 前端和后端配置

名称说明:

  • frontend 端(front end):指定接收 客户端 侦听套接字设置。

  • backend 端(back end):指定将连接请求转发至 后端服务器 的相关设置。

  • listen 端:指定完整的前后端设置,只对TCP有效

  • proxy 名称:使用字母 、数字 - 、_ 、. 、: ,并区分字符大小写。

6.1.1、 global 全局配置
 chroot                   # 锁定运行目录deamon                   # 以守护进程运行stats socket /var/lib/haproxy/haproxy.sock mode 600 level admin    # socket文件user, group, uid, gid     # 运行haproxy的用户身份nbproc                    # 开启的haproxy进程数,与CPU保持一致nbthread                  # 指定每个haproxy进程开启的线程数,默认为每个进程一个线程cpu-map 1 0               # 绑定haproxy 进程至指定CPUmaxconn                   # 每个haproxy进程的最大并发连接数maxsslconn                # 每个haproxy进程ssl最大连接数,用于haproxy配置了证书的场景下maxconnrate               # 每个进程每秒创建的最大连接数量spread-checks             # 后端server状态check随机提前或延迟百分比时间,建议2-5(20%-50%)之间pidfile                   # 指定pid文件路径log 127.0.0.1 local3 info    # 定义全局的syslog服务器;最多可以定义两个

示例:

 ########################  全局配置  ############################ ####### 参数是进程级的,通常和操作系统(OS)相关global chroot /var/haproxy             # 锁定运行目录uid 99                          # 所属运行的用户uid gid 99                          # 所属运行的用户组 daemon                          # 守护进程。以后台形式运行haproxy nbproc 1                        # haproxy进程数,与CPU保持一致pidfile /var/run/haproxy.pid    # haproxy的pid存放路径,启动进程的用户必须有权限访问此文件 ulimit-n 65535                    # ulimit的数量限制maxconn 20480                   # 默认最大连接数 log 127.0.0.1 local0            # 日志输出配置,所有日志都记录在本机系统日志,通过 local0 输出log 127.0.0.1 local1 notice     # notice 为日志级别,通常有24个级别(error warring info debug)
6.1.2、 proxy 代理配置

主要分为下面4个部分

 defaults [<name>]  # 默认配置项,针对以下的frontend、backend和lsiten生效,可以多个namefrontend <name>    # 前端servername,类似于Nginx的一个虚拟主机 server。backend <name>     # 后端服务器组,等于nginx的upstreamlisten <name>      # 将frontend和backend合并在一起配置
proxies 配置-defaults
option redispatch           # 当server Id对应的服务器挂掉后,强制定向到其他健康的服务器option abortonclose         # 当服务器负载很高的时候,自动结束掉当前队列处理比较久的链接option http-keep-alive      # 开启与客户端的会话保持option forwardfor           # 透传客户端真实IP至后端web服务器mode http                   # 默认工作类型timeout connect 120s        # 客户端请求到后端server的最长连接等待时间(TCP之前)timeout server 600s         # 客户端请求到后端服务端的超时超时时长(TCP之后)timeout client 600s         # 与客户端的最长非活动时间timeout http-keep-alive 120s # session 会话保持超时时间,范围内会转发到相同的后端服务器timeout check 5s            # 对后端服务器的检测超时时间

示例:

 #########################  默认设置  ########################## ## 这些参数可以被利用配置到 frontend,backend,listen组件defaults log global                      # 定义日志为global(全局)配置中的日志定义mode http                       # 所处理的类别 (网络七层协议中,tcp是第4层的会话层、http是第7层的应用层) maxconn 20480                   # 最大连接数 option httplog                  # 日志类别http日志格式 option httpclose                # 每次请求完毕后主动关闭http通道 option dontlognull              # 不记录健康检查的日志信息 option forwardfor               # 如果后端服务器需要获得客户端真实ip需要配置的参数,可以从Http Header中获得客户端ip  option redispatch               # 当server Id对应的服务器挂掉后,强制定向到其他健康的服务器option abortonclose             # 当服务器负载很高的时候,自动结束掉当前队列处理比较久的连接 stats refresh 30                # 统计页面刷新间隔 retries 3                       # 检查节点服务器失败次数,连续达到三次失败,则认为节点不可用balance roundrobin              # 默认的负载均衡的方式,轮询方式,上面的第4段8种负载均衡算法#balance source                 # 默认的负载均衡的方式,类似nginx的ip_hash #balance leastconn              # 默认的负载均衡的方式,最小连接 contimeout 5000                 # 连接的超时时间clitimeout 50000                # 客户端的超时时间srvtimeout 50000                # 服务器的超时时间timeout check 2000              # 心跳检测的超时时间

7、状态统计功能测试

下载haproxy

yum -y install haproxy

修改配置文件

[root@haproxy ~]# cd /etc/haproxy/
[root@haproxy haproxy]# ls
conf.d  haproxy.cfg
[root@haproxy haproxy]# vim haproxy.cfg 
[root@haproxy haproxy]# cat haproxy.cfg
#---------------------------------------------------------------------
# Example configuration for a possible web application.  See the
# full configuration options online.
#
#   https://www.haproxy.org/download/1.8/doc/configuration.txt
#
#---------------------------------------------------------------------globallog         127.0.0.1 local2chroot      /var/lib/haproxypidfile     /var/run/haproxy.piduser        haproxygroup       haproxydaemonmaxconn     4000defaultsmode                    httplog                     globaloption                  httplogoption                  dontlognullretries                 3timeout http-request    5stimeout queue           1mtimeout connect         5stimeout client          1mtimeout server          1mtimeout http-keep-alive 5stimeout check           5smaxconn                 3000frontend mainbind *:80default_backend         http_backbackend http_backbalance     roundrobinserver  node1 192.168.72.164:80 check    ###web1主机IP地址server  node2 192.168.72.165:80 check    ###web2主机IP地址
listen stats #定义监控页面    mode httpoption httplogbind *:1080                   #绑定端口1080    stats refresh 30s             #每30秒更新监控数据    stats uri /stats              #访问监控页面的uri    stats realm HAProxy\ Stats    #监控页面的认证提示    stats auth admin:admin        #监控页面的用户名和密码

web1、web2下载并开启nginx

[root@web1 ~]# yum install -y nginx
[root@web1 ~]# systemctl start nginx[root@web2 ~]# yum install -y nginx
[root@web2 ~]# systemctl start nginx

web1、web2在Nginx web服务器的默认根目录下的首页文件中输入内容

[root@web1 ~]# echo web1 > /usr/share/nginx/html/index.html
[root@web2 ~]# echo web2 > /usr/share/nginx/html/index.html

回到haproxy开启haproxy.service

[root@haproxy ~]# systemctl start haproxy.service#查看监听
[root@haproxy ~]# netstat -antup | grep 80
tcp        0      0 0.0.0.0:1080            0.0.0.0:*               LISTEN      10525/haproxy       
tcp        0      0 0.0.0.0:80              0.0.0.0:*               LISTEN      10525/haproxy   

验证流量分发 

访问192.168.72.163web网站,查看到请求被均匀地分发到了两个不同的后端服务器(web1和web2),采用轮询实现负载均衡策略

访问192.168.72.163:1080/stats web网站,输入用户名:admin,密码:admin,进入状态统计页面

HAProxy + Keepalived实现负载均衡高可用

主机作用真实 IP (RIP)虚拟 IP (VIP)
server1主负载均衡节点192.168.72.163192.168.72.100
server2备负载均衡节点192.168.72.185192.168.72.100
Web1后端服务器 1192.168.72.164-
Web2后端服务器 2192.168.72.165-
客户端请求↓
[ VIP: 192.168.72.100 ]  ← Keepalived 主备切换 (server1/server2)↓
[ HAProxy 负载均衡 ]↓
[ web1:192.168.72.164 ]
[ web2:192.168.72.165 ]

server1主节点修改配置文件/etc/keepalived/keepalived.conf

server2备节点修改配置文件/etc/keepalived/keepalived.conf

server1备节点修改配置文件/etc/haproxy/haproxy.cfg

[root@server1 ~]# cat /etc/haproxy/haproxy.cfg
#---------------------------------------------------------------------
# Example configuration for a possible web application.  See the
# full configuration options online.
#
#   https://www.haproxy.org/download/1.8/doc/configuration.txt
#
#---------------------------------------------------------------------globallog         127.0.0.1 local2chroot      /var/lib/haproxypidfile     /var/run/haproxy.piduser        haproxygroup       haproxydaemonmaxconn     4000defaultsmode                    httplog                     globaloption                  httplogoption                  dontlognullretries                 3timeout http-request    5stimeout queue           1mtimeout connect         5stimeout client          1mtimeout server          1mtimeout http-keep-alive 5stimeout check           5smaxconn                 3000frontend http-inbind 192.168.72.100:80default_backend web_serversbackend web_serversbalance     roundrobinserver web1 192.168.72.164:80 checkserver web2 192.168.72.165:80 check

server2备节点修改配置文件/etc/haproxy/haproxy.cfg

[root@server2 haproxy]# cat haproxy.cfg 
#---------------------------------------------------------------------
# Example configuration for a possible web application.  See the
# full configuration options online.
#
#   https://www.haproxy.org/download/1.8/doc/configuration.txt
#
#---------------------------------------------------------------------globallog         127.0.0.1 local2chroot      /var/lib/haproxypidfile     /var/run/haproxy.piduser        haproxygroup       haproxydaemonmaxconn     4000defaultsmode                    httplog                     globaloption                  httplogoption                  dontlognullretries                 3timeout http-request    5stimeout queue           1mtimeout connect         5stimeout client          1mtimeout server          1mtimeout http-keep-alive 5stimeout check           5smaxconn                 3000frontend http-inbind 192.168.72.100:80default_backend web_serversbackend web_serversbalance     roundrobinserver web1 192.168.72.164:80 checkserver web2 192.168.72.165:80 check

启动服务 

###在两台server上执行:
systemctl start keepalived
systemctl start haproxy###备节点需要强制切换VIP到备节点开启服务(测试)
[root@server2 haproxy]# ip addr add 192.168.72.100/24 dev ens33
[root@server2 haproxy]# systemctl restart haproxy

server1、server2分别输入ip a命令查看确保 Keepalived 主节点 server1 应持有 VIP,备节点 server2 现未持有VIP,在故障时接管

[root@server1 ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host noprefixroute valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000link/ether 00:0c:29:c2:74:d2 brd ff:ff:ff:ff:ff:ffinet 192.168.72.163/24 brd 192.168.72.255 scope global dynamic noprefixroute ens33valid_lft 1324sec preferred_lft 1324secinet 192.168.72.100/24 scope global secondary ens33valid_lft forever preferred_lft foreverinet6 fe80::20c:29ff:fec2:74d2/64 scope link noprefixroute valid_lft forever preferred_lft forever###
[root@server2 haproxy]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host noprefixroute valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000link/ether 00:0c:29:9b:f9:1b brd ff:ff:ff:ff:ff:ffinet 192.168.72.185/24 brd 192.168.72.255 scope global dynamic noprefixroute ens33valid_lft 1685sec preferred_lft 1685secinet6 fe80::20c:29ff:fe9b:f91b/64 scope link noprefixroute valid_lft forever preferred_lft forever

验证流量分发

访问192.168.72.100web站点,在后端web1、web2上部署不同页面分别返回 web1和web2内容,说明轮询策略生效,实现负载均衡

故障模拟

VIP飘逸测试

切换到server1关闭Keepalived

[root@server1 ~]# systemctl stop keepalived###查看服务状态
[root@server1 ~]# systemctl status keepalived
○ keepalived.service - LVS and VRRP High Availability MonitorLoaded: loaded (/usr/lib/systemd/system/keepalived.service; disabled; preset: disabled)Active: inactive (dead)7月 16 10:34:42 server1 systemd[1]: Stopping LVS and VRRP High Availability Monitor...
7月 16 10:34:42 server1 Keepalived[26286]: Stopping
7月 16 10:34:42 server1 Keepalived_vrrp[26287]: (VI_1) sent 0 priority
7月 16 10:34:42 server1 Keepalived_vrrp[26287]: (VI_1) removing VIPs.
7月 16 10:34:43 server1 Keepalived_vrrp[26287]: Stopped - used 0.000000 user time, 0.069239 system time
7月 16 10:34:43 server1 Keepalived[26286]: CPU usage (self/children) user: 0.000000/0.000000 system: 0.000834/0.069811
7月 16 10:34:43 server1 Keepalived[26286]: Stopped Keepalived v2.2.8 (04/04,2023), git commit v2.2.7-154-g292b299e+
7月 16 10:34:43 server1 keepalived-stop-post.sh[30523]: Excuted stop-post keepalived
7月 16 10:34:43 server1 systemd[1]: keepalived.service: Deactivated successfully.
7月 16 10:34:43 server1 systemd[1]: Stopped LVS and VRRP High Availability Monitor.

此时在server2主机输入ip a命令观察VIP已漂移到server2,实现故障转移

[root@server2 haproxy]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host noprefixroute valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000link/ether 00:0c:29:9b:f9:1b brd ff:ff:ff:ff:ff:ffinet 192.168.72.185/24 brd 192.168.72.255 scope global dynamic noprefixroute ens33valid_lft 1209sec preferred_lft 1209secinet 192.168.72.100/24 scope global secondary ens33valid_lft forever preferred_lft foreverinet6 fe80::20c:29ff:fe9b:f91b/64 scope link noprefixroute valid_lft forever preferred_lft forever

此时再次访问192.168.72.100web站点保持正常,因备节点自动接管,

总结:

        HAProxy 通过多节点流量调度、健康监测和故障自动转移等机制,不仅实现了高效的负载均衡,还大幅提升了系统的容错能力。无论是应对高并发请求,还是保障关键业务的高可用性,HAProxy 都展现出了强大的适应性和可靠性。结合合理的架构设计(如多活部署、会话保持等),HAProxy 能够为企业级应用提供稳定、高效的流量管理解决方案,成为现代云原生和微服务架构中不可或缺的基础设施组件。

http://www.dtcms.com/a/282576.html

相关文章:

  • 逆向入门(39、40)程序逆向篇-DaNiEl-RJ.1、genocide1
  • 基于SSE传输的MCP服务器实现
  • LVS集群实践
  • 使用CodeQL挖掘Spring中的大量赋值漏洞
  • 行为模式-策略模式
  • 华大北斗TAU1201-1216A00高精度双频GNSS定位模块 自动驾驶专用
  • AWS IAM 最佳安全实践通用指南
  • 从 “洗澡难” 到 “洗得爽”:便携智能洗浴机如何重塑生活?
  • 微服务架构升级:从Dubbo到SpringCloud的技术演进
  • 浏览器自动化方案
  • 创客匠人解析:系统化工具如何重构知识变现效率
  • 在 kubernetes 上安装 jenkins
  • 闲庭信步使用图像验证平台加速FPGA的开发:第十九课——图像拉普拉斯金字塔的FPGA实现
  • Image 和 IMU 时间戳同步
  • 事务~~~
  • JavaScript进阶篇——第五章 对象成员管理与数组遍历优化
  • 密码喷洒复现
  • Thymeleaf 基础语法与标准表达式详解
  • 如何区分Bug是前端问题还是后端问题?
  • LeetCode经典题解:141、判断链表是否有环
  • 【LeetCode】链表相关算法题
  • Node.js Process Events 深入全面讲解
  • 1.3 vue响应式对象
  • FATFS文件系统原理及其移植详解
  • PyTorch 损失函数详解:从理论到实践
  • 嵌入式学习-PyTorch(5)-day22
  • 【深度学习基础】PyTorch中model.eval()与with torch.no_grad()以及detach的区别与联系?
  • Vue 结合 Zabbix API 获取服务器 CPU、内存、GPU 等数据
  • 数据结构自学Day8: 堆的排序以及TopK问题
  • 前端Vue中,如何实现父组件打开子组件窗口等待子组件窗口关闭后继续执行父组件逻辑