Nginx

和自甴很熟 提交于 2020-01-07 16:24:25

1 Nginx的简介

1.1 Nginx概述

  • Nginx是一个高性能的HTTP和反向代理服务器,特点是占用内存少,并发能力强,事实上Nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用Nginx的网站用户有:百度、京东、新浪、网易、腾讯和淘宝等。

1.2 Nginx作为web服务器

  • Nginx可以作为静态页面的web服务器,同时还支持CGI协议的动态语言,比如perl、php等。但是不支持java。java程序只能通过和tomcat等服务器配置使用。Nginx专为性能优化而开发,性能是最重要的考量,实现上非常注重效率,能经受高负载的考验,有报告表明能支持高达50000个并发连接数。

1.3 正向代理

  • Nginx不仅可以做反向代理,实现负载均衡。还能通过正向带来来进行上网等功能。
  • 正向代理:如果把局域网外的Internet想象成一个巨大的资源库,则局域网中的客户端要Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。
  • 例如:国内是不能访问www.google.com的,但是可以通过正向代理服务器来访问www.google.com,如下图所示:

 

1.4 反向代理服务器

  •  反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,再返回给客户端,此时反向带来服务器和目标服务器对外就是一个服务器,暴露的是代理服务器的地址,隐藏了真实的服务器IP地址。

 

1.5 彻底理解正向代理和反向代理

  •  正向代理:

  • 反向代理:

 

 

  • 正向代理中,client(客户端)和proxy(代理服务器)对server来说,都是客户端,换言之,对server来说是透明的。
  • 反向代理中,proxy(代理服务器)和server(真实服务器)对client(客户端)来说,都是服务器,换言之,对client来说是透明的。

 

  • 正向代理和反向代理某种意义上讲,都是基于服务器的。
  • 我们知道常规的B/S架构是客户端发送请求给服务器,服务器返回数据给客户端。
  • 正向代理中,服务器是无法感知客户端的,换言之,只要你有请求访问我,不管你是真实客户端还是代理服务器,我都认为是客户端,这点和常规的B/S架构很类似。都是客户端发送请求给服务器,服务器响应给客户端。某些“翻墙软件”就是正向代理。
  • 反向代理中,客户端是无法感知服务器的,换言之,只要我访问了你的网站,我管你后面多少台机器为我服务。在这种架构中,客户端的请求并不是直接传送到服务器端的,而是类似“转发”的意思,和常规的B/S架构的那种方式有点相反,所以称为反向代理。

1.6 负载均衡

  • 客户端发送多个请求到服务器,服务器处理请求,有一些要和数据库进行交互,服务器处理完毕后,再将结果返回给客户端。 

 

  • 这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂度增加,这种架构会造成服务器相对客户端的请求日益缓慢,并发量特别大的时候,还容易造成服务器直接崩溃。很明显这是服务器性能的瓶颈造成的问题,那么如何解决这种情况呢?
  • 我们首先想到的可能是升级服务器的配置,比如提高CPU的执行频率,加大内存等提高机器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的性能提升已经不能满足日益提升的需求了。最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能够满足需求的。那么怎么办呢?
  • 上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说纵向解决问题的方法行不通了,那么横向增加服务器的数量呢?这时候集群的概念产生了,单个服务器解决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原来请求集中到单个服务器上的情况改为请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡。

1.7 动静分离

  • 为了加快网站的解析速度,可以把动态页面和静态页面交由不同的服务器去解析,加快解析速度。降低原来单个服务器的压力。

 

2 Nginx的安装

2.1 安装PCRE

  • 下载PCRE:
wget http://downloads.sourceforge.net/project/pcre/pcre/8.37/pcre-8.37.tar.gz

 

  • 示例:

 

  • 解压PCRE:
tar -zxvf pcre-8.37.tar.gz

 

  • 示例:

 

  • 安装:
cd pcre-8.37
./configure
make && make install

 

  • 示例:

2.2 安装openssl和zlib

  • 下载openssl和zlib:
yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel

 

  • 示例:

2.3 安装nginx

  • 下载Nginx:
wget http://nginx.org/download/nginx-1.12.2.tar.gz

 

  • 示例:

 

  • 解压nginx:
tar -zxvf nginx-1.12.2.tar.gz 

 

  • 示例:

 

  • 安装:
cd nginx-1.12.2
./configure
make && make install

 

  • 示例:

 

3 Nginx常用的命令和配置文件

3.1 常用命令

  • 启动命令:
在/usr/local/nginx/sbin目录下执行
./nginx

 

  • 示例:

 

  • 关闭命令:
在/usr/local/nginx/sbin目录下执行
./nginx -s stop

 

  • 示例:

 

  • 重新加载命令:
在/usr/local/nginx/sbin目录下执行
./nginx -s reload

 

  • 示例:

3.2 配置文件

  • Nginx安装目录下,其默认的配置文件都放在这个目录的conf目录中,而主配置文件nginx.conf也在其中,后续对nginx的使用基本上都是对此配置文件进行相应的修改。

 

  • 配置文件中有很多#,#开头的表示注释内容,我们去掉所有的以#开头的注释,精简后的内容如下:
worker_processes  1;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;
    
    sendfile        on;
   
    server {
        listen       80;
        server_name  localhost;

       
        location / {
            root   html;
            index  index.html index.htm;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

    }
}
  • 根据上述文件,我们可以很明显的将nginx.conf配置文件分为三部分:
  • 第一部分:全局块。
    • 从配置文件开始到events块之间的内容,主要会设置一些影响nginx服务器整体运行的配置指令,主要包括配置运行Nginx服务器的用户(组)、允许生成的worker process数,进行PID存放路径、日志存放路径和类型以及配置文件的引入等。
    • 比如上面第一行的配置如下:  
worker_processes  1;
    • 这是Nginx服务器并发处理服务的关键配置,worker_processes值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的影响。  
  • 第二部分:events块。
    • 比如上面的配置:  
events {
    worker_connections  1024;
}
    • events块涉及的指令主要影响nginx服务器和用户的网络连接,常用的设置包括是否开启对多work process下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪个事件驱动模型来处理连接请求,每个work process可以同时支持的最大连接数等。
    • 上述例子就表示每个work process支持的最大连接数是1024.
    • 这部分的配置对Nginx的性能影响较大,在实际中应该灵活配置。  
  • 第三部分:http块。
http {
    include       mime.types;
    default_type  application/octet-stream;
    
    sendfile        on;
   
    server {
        listen       80;
        server_name  localhost;

       
        location / {
            root   html;
            index  index.html index.htm;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

    }
}
    • 这算是Nginx服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。需要注意的是:http块也包括http全局块和server块。
    • ①http全局块:
      • http全局块配置的指令包括文件引入、MIME-TYPE定义、日志自定义、连接超时时间、单链接请求数上限等。    
    • ②server块:
      • 这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网的服务器硬件成本。
      • 每个http块可以包括多个server块,而每个server块就相当于一个虚拟主机。
      • 而每个server块也分为全局server块以及可以同时包含多个location块。
      • 1、全局server块:
        • 最常见的配置是本虚拟主机的监听配置和本虚拟主机的名称或IP配置。      
      • 2、location块:
        • 一个server块可以配置多个location块。
        • 这块的主要作用是基于Nginx服务器接收到的请求字符串,对虚拟主机名称之外的字符串进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。      

 

4 Nginx的配置实例之反向代理

4.1 反向代理实例一

  • 打开浏览器,在浏览器地址栏输入www.123.com,跳转到Linux系统中的Tomcat页面。

4.1.1 准备工作

  • 在Linux(192.168.136.100)中安装一个Tomcat,端口为8080。
  • 我是以Docker启动的,如果小伙伴们不会,可以在Linux中直接安装Tomcat。

 

 4.1.2 配置思路

 

 

 4.1.3 配置hosts文件

192.168.136.100  www.123.com

 

4.1.4 配置Nginx

  • 编辑/usr/local/nginx/conf/nginx.conf文件。

 

4.2 反向代理实例二

4.2.1 准备两个Tomcat,其端口分别是8080和8081

 

 

 

 4.2.2 在8080和8081的tomcat中新建文件,以便区分

  • 在8080的tomcat的webapps目录下新建edu目录,然后在其下创建a.html文件,并写入8080。

 

  • 在8081的tomcat的webapps目录下,新建vod目录,然后在其下创建a.html文件,并写入8081。

 

4.2.3  配置Nginx

  • 编辑/usr/local/nginx/conf/nginx.conf文件:

 

 

 

 

  •  注意:location指令的说明
该指令用于匹配URL

语法如下:
location [=、~、~*、^~] uri{

}

=:用于匹配不含正则表达式的uri前,要求请求字符串和uri严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求
~:用于表示uri中包含正则表达式,并且区分大小写
~*:用于表示uri中包含正则表单时,并且不区分大小写
^~:用于不含正则表达式的uri前,要求Nginx服务器找到标识uri和请求字符串匹配最高的location后,立即使用此location的处理请求,而不再使用location块中的正则uri和请求字符串做匹配

 

5 Nginx的配置实例之负载均衡

5.1 准备2台Tomcat服务器

 

 

 

5.2 编辑Nginx的配置文件

  • 编辑/usr/local/nginx/conf/nginx.conf文件:

 

  • 测试:最好使用firefox测试,chrome好像有问题。

5.3 负载均衡的策略

  • 随着互联网信息的爆炸增长,负载均衡已经不再是一个很陌生的话题,顾名思义,负载均衡就是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。
  • 快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很多的功能,但是价格不菲,这使得负载均衡软件大受欢迎,Nginx就是其中的一个。
  • 在Nginx下有Nginx、LVS、HaProxy等服务可以提供负载均衡的服务,而且Nginx还提供如下的分配策略:

5.3.1 轮询

  • 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

5.3.2 weight

  • weight代表权重,默认为1,权重越高的被分配的客户端越多。

 

5.3.3 ip_hash

  •  每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。

 

5.3.4 fair(第三方)

  • 按后端服务器的响应时间来分配请求,响应时间短的优先分配。
  • 这种方式需要安装fair模块。

 

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!