对Nginx负载均衡的了解(分配方式)以及实例! # 1、概述 > 增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的请求改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所属的负载均衡。 # 2、nginx 配置实例:负载均衡 ### 2.1、实现效果 ###### (1)浏览器输入 http: //192.168.153.128/edu/a.html,负载均衡效果,平均到 8080 和 8081 中去。 ### 2.2、准备工作 > (1)准备两天 tomcat 服务器, 一台是8080,一台是8081; > (2)在两台 tomcat 的 webapps 下,创建名为 edu 的文件夹,在里面添加一个页面,用于测试; ### 2.3、 nginx 中配置 > 在 nginx 的配置文件中配置如下: > 在 http 中配置: ```bash 34 #负载均衡服务列表配置 35 upstream myserver{ 36 server 192.168.153.128:8080; 37 server 192.168.153.128:8081; 38 } ``` > 在 server 中配置: ```cpp 40 server { 41 listen 80; 42 server_name 192.168.153.128; 43 44 location / { 45 proxy_pass http://myserver; 46 root html; 47 index index.html index.htm; 48 } 49 ``` ### 2.4、 测试   # 3、负载均衡分配方式 随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题,顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎, nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服务,而且 Nginx 提供了几种分配方式(策略): **1、轮询(默认)** 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。 **2、weight** weight 代表权,重默认为 1,权重越高被分配的客户端越多 指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。 例如:  **3、ip_hash** 每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。例如:  **4、fair(第三方)** 按后端服务器的响应时间来分配请求,响应时间短的优先分配。  最后修改:2023 年 03 月 16 日 © 允许规范转载 赞 2 如果觉得我的文章对你有用,请随意赞赏