百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Nginx负载均衡最全详解(4大算法原理机制)

haoteby 2025-06-03 22:03 6 浏览

Nginx在大型网站架构很重要,也是大厂重点考察方向,今天我就重点来详解Nginx负载均衡@mikechen

本篇已收于mikechen原创超30万字《阿里架构师进阶专题合集》里面。

Nginx负载均衡

Nginx负载均衡能够将客户端请求,分发到多个后端服务器(比如:应用1、应用2...应用N服务器),从而分散负载,提升应用的可用性、和性能。

如下图所示:

Nginx负载均衡,通过横向扩展,不仅可以添加、或移除后端服务器,以应对流量变化,实现动态扩展。

除此之外,负载均衡器可以作为系统的第一道防线,通过过滤和分发流量,帮助防御攻击...等等。

还可以,通过将请求分发到多个服务器上,从而,避免了Nginx 单点故障,还可以提高了系统的可靠性、和可用性。

Nginx负载均衡算法

Nginx 提供了多种“负载均衡算法”,经常使用的包括:随机、轮询、权重...等模式,下面我分别来详解原理与使用@mikechen

1、轮循(默认)

这是默认的Nginx负载均衡算法,Nginx 将请求按顺序轮流分配给每个后端服务器,如下图所示:

轮询算法的工作原理非常简单:

  • 负载均衡器维护一个后端服务器列表,并在其中循环遍历;
  • 每当有新的请求到来时,负载均衡器按顺序选择列表中的下一个服务器进行分发;
  • 当遍历到列表的末尾时,重新回到列表的起点,继续按顺序分配请求。

配置轮询算法非常简单,只需要在配置文件中定义上游服务器列表即可。

如下所示:

http {
    upstream myapp {
        server backend1.example.com;
        server backend2.example.com;
        server backend3.example.com;
    }

    server {
        listen 80;

        location / {
            proxy_pass http://myapp;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
        }
    }
}

轮询:适用于大多数基本负载均衡需求,但是,当应用场景复杂,需要考虑服务器负载时,可以选择,比如:加权轮询、最少连接数等。

2.加权轮询

加权轮询是一种改进的轮询算法,主要作用是:根据后端服务器的处理能力(权重)来分配请求。

如下图所示:

加权轮询的工作原理如下:

每个后端服务器分配一个权重值(weight),权重值越高,服务器处理的请求数量越多;

例如:权重值为“3”的服务器,接收到的请求次数,将是权重值为1的服务器的三倍。

配置如下:

http {
    upstream myapp {
        server backend1.example.com weight=3;
        server backend2.example.com weight=2;
        server backend3.example.com weight=1;
    }

    server {
        listen 80;

        location / {
            proxy_pass http://myapp;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
        }
    }
}

具体来说,backend1.example.com 接收到的请求数量,将是 backend3.example.com 的三倍。

这种算法适用于:后端服务器性能不一致的情况。

通过加权分配,使得处理能力更强的服务器承担更多的请求,从而优化整体系统性能、和资源利用。

3.ip_hash模式

IP哈希负载均衡算法,主要作用是:基于客户端IP地址的哈希值将请求分配给后端服务器。

如下图所示:

此算法的主要优点在于:它能够实现会话保持(Session Persistence),即确保来自同一客户端的所有请求,都分配到同一个后端服务器。

这种方式保证了会话的连续性,即同一客户端的所有请求,都能访问同一个后端服务器。

配置,如下所示:

http {
    upstream myapp {
        ip_hash;
        server backend1.example.com;
        server backend2.example.com;
        server backend3.example.com;
    }

    server {
        listen 80;

        location / {
            proxy_pass http://myapp;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
        }
    }
}

这种方式,适用于:需要保持用户状态、或会话信息的一些应用,比如:购物车、支付...等。

但是也要注意:如果某台服务器宕机,负载均衡器需要重新计算哈希值,将请求分配到其他服务器,因此,健康检查机制非常重要。

4、最少连接

最少连接数(Least Connections),主要作用是:将新的请求分配给当前活动连接数最少的后端服务器。

如下图所示:

配置如下:

http {
    upstream myapp {
        least_conn;
        server backend1.example.com;
        server backend2.example.com;
        server backend3.example.com;
    }

    server {
        listen 80;

        location / {
            proxy_pass http://myapp;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
        }
    }
}

最少连接数算法:能够有效避免某些服务器过载。

能够根据实际负载情况动态调整请求分配,适用于请求处理时间不一致的场景。

本篇已收于mikechen原创超30万字《阿里架构师进阶专题合集》里面。

相关推荐

单点登录(SSO)解决方案介绍(单点登录概念)

一、单点登录的介绍单点登录(SingleSignOn),简称为SSO,是目前比较流行的企业业务整合的解决方案之一。SSO的定义是在多个应用系统中,用户只需要登录一次就可以访问所有相互信任的应用系...

系统登录的三种方式,哪一种更安全?

登录是一个高频的动作,笔者抓住这一个小点,分析了系统登录的几种方式和对应的场景。今天谈谈登录。登录即用户输入用户名和密码登录进系统中。B端系统,对于登录的业务场景有两种(可能不止,目前遇到过这两种):...

到底什么是单点登录(SSO)?(什么叫做单点登录)

什么是单点登录?单点登录(SingleSign-On,简称SSO)是一种集中式的身份验证和授权机制,用户只需在一处输入一次凭证(例如用户名和密码)就可以访问多个相关但独立的软件系统。在数字化时代,...

5年稳如老狗的单点登录系统,到底是怎么搞出来的?

说到单点登录(SingleSign-On,简称SSO),大家的第一反应可能是——啊不就是登录一次,能到处串门儿嘛?别说,还真差不多,就是这么个意思。但真要搭一套好用、耐造、还能扛住公司里各种奇奇怪...

这些负载均衡都解决哪些问题?服务、网关、NGINX?

在微服务项目中,有服务的负载均衡、网关的负载均衡、Nginx的负载均衡,这几个负载均衡分别用来解决什么问题呢?一、服务的负载均衡先抛出一个问题:...

Nginx负载均衡最全详解(4大算法原理机制)

Nginx在大型网站架构很重要,也是大厂重点考察方向,今天我就重点来详解Nginx负载均衡@mikechen本篇已收于mikechen原创超30万字《阿里架构师进阶专题合集》里面。Nginx负载均衡N...

负载均衡 Nginx Session 一致性(nginx 负载均衡 会话保持)

HTTPS请求跳转...

监控Oracle Cloud负载均衡器:Applications Manager释放最佳性能

设想你正在运营一个受欢迎的在线学习平台,在考试前的高峰期,平台流量激增。全球的学生同时登录,观看视频、提交作业和参加测试。如果OracleCloud负载均衡器不能高效地分配流量,或者后端服务器难...

Nginx负载均衡:nginx.conf配置文件说明!

大家好,欢迎来到程序视点!我是你们的老朋友.小二!在此记录下Nginx服务器nginx.conf负载均衡的配置文件说明,部分注释收集与网络.关于nginx.conf基本的配置,请查看上一篇文章!Ng...

Java高可用系统架构中的负载均衡策略

Java高可用系统架构中的负载均衡策略在现代的分布式系统中,负载均衡策略是构建高可用系统的基石。Java开发者需要深刻理解这些策略,以便打造稳定且高效的系统。接下来,让我们一起揭开负载均衡的神秘面纱。...

深入对比Nginx、LVS和HAProxy,选择最合适负载均衡方案!

关注...

Spring Boot3 客户端负载均衡全解析:从原理到实战

在当今互联网大厂后端技术开发的激烈竞争环境中,构建高效、稳定的微服务架构是核心诉求。其中,SpringBoot3作为热门开发框架,其客户端负载均衡功能对于提升系统性能、保障服务稳定性起着关键作用。...

MySql高可用集群MySQL Router负载均衡读写分离

名词解释MGR:MysqlGroupReplication组复制,多台MySQL服务器在同一组中会自动保持同步状态,当某台服务器故障时,整个复制组依然可以保持正常并对外提供服务。...

性能测试之tomcat+nginx负载均衡(nginx tomcat)

nginxtomcat配置准备工作:两个tomcat执行命令cp-rapache-tomcat-8.5.56apache-tomcat-8.5.56_2修改被复制的tomcat2下con...

win10/11双网卡链路聚合叠加负载均衡提升网速解决网卡网速瓶颈!

双网卡链路聚合一种网络配置技术,通过将多个物理网卡绑定在一起,形成一个逻辑上的网络接口,以提高网络的可靠性、可用性和性能。这种技术通常用于服务器和网络设备中,以实现负载均衡、冗余和高可用性。本机环境:...