Nginx反向代理导致PHP获取不到正确的HTTP_HOST,SERVER_NAME,客户端IP的解决方法

今天第一次配Nginx负载均衡,发现PHP无法获取HTTP_HOST

贴上的Nginx配置

复制代码
upstream abc.com {
        server 10.141.8.55:8005;
        server 10.141.8.55:8006;
}
server {
        listen 80;
        server_name www.xxx.com;
        log_not_found off;
        access_log  /var/log/nginx/html-access.log  main;
        charset utf-8;
        location / {
                proxy_pass http://abc.com;
        }
}
复制代码

echo $_SERVER[‘HTTP_HOST’];

输出abc.com

仔细查看Nginx配置,很容易发现PHP获取到的HTTP_HOST是Nginx代理过来的。

解决的办法有两种

方法一,将abc.com改成你www.xxx.com

不过这种方法还不是很好,如果server_name有多个怎么办呢

所以

方法二

在location/{}加上 proxy_set_header    Host             $host;

既然HTTP_HOST有问题,那其他客户端的信息也肯定是不对的。比如客户端IP。

所以还得加上其他配置,完整的Nginx配置如下

复制代码
upstream abc.com {
        server 10.141.8.55:8005;
        server 10.141.8.55:8006;
}
server {
        listen 80;
        server_name www.xxx.com;
        log_not_found off;
        access_log  /var/log/nginx/html-access.log  main;
        charset utf-8;
        location / {
                proxy_pass http://abc.com;
                proxy_set_header    Host             $host;
                proxy_set_header    X-Real-IP        $remote_addr;
                proxy_set_header    X-Forwarded-For  $proxy_add_x_forwarded_for;
                proxy_set_header    HTTP_X_FORWARDED_FOR $remote_addr;
                proxy_redirect      default;
        }
}
复制代码

nginx/1.2.7 css文件Content-Type为text/html 问题解决

1.环境

Linux version 2.6.32-431.el6.x86_64

CentOS release 6.5 (Final)

Nginx version: nginx/1.2.7

PHP 5.4.11 (fpm-fcgi)

2.问题

新增一个基于域名的虚拟主机后,访问该虚拟主机目录下的css文件,Response Headers 中的Content-Type值为 text/html

http://k1ic.com/static/frame.css

nginx.conf

nginx.conf

k1ic.com.conf

k1ic.com.conf

3.解决

注意到配置php-fpm处为通配符“/”,使得所有请求均会被php-fpm处理,导致css文件的响应头出错,修改如下:

k1ic.com.conf

重启nginx服务

http://k1ic.com/static/frame.css
http://k1ic.com/static/frame.css

4.分析

img

ps -ef | grep nginx | grep -v grep

strace -p 14527

strace -p 14527

nginx模块分类

nginx模块分类

作者:k1ic
链接:https://www.jianshu.com/p/024886ba5a2d
来源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

Nginx配置多个服务共用80端口

对于Web而已,80端口和443端口是十分重要的,原则上需要输入http://domain.com:80才可以浏览网页的,但由于默认端口是80,所以‘:80’可以忽略。同理对于https的443端口也一样。

随着服务器性能的提升和业务的需求,一台服务器上往往会同时有多个服务,这些服务都希望监听80端口,比如有vue.msg.com和react.msg.com。这时候我们可以使用nginx的代理转发功能帮我们实现共用80端口的需求。

http

首先我们先在两个空闲的端口上分别部署项目(非80,假设是8080和8081),nginx.conf配置如下:

$ vim /ect/nginx/nginx.conf

// nginx.conf

# vue项目配置

server {

    listen       8080;

    root         /web/vue-base-demo/dist/;

    index        index.html;

    location / {

        try_files $uri $uri/ /index.html; # 路由模式history的修改

    }

}

# react项目配置

server {

    listen       8081;

    root         /web/react-base-demo/build;

    index        index.html;

    location / {}

}

上面就是常规的配置,紧接着如果已经做好域名解析,希望vue.msg.com打开vue项目,react.msg.com打开react项目。我们需要再做两个代理,如下:

// nginx.conf

# nginx 80端口配置 (监听vue二级域名)

server {

    listen  80;

    server_name     vue.msg.com;

    location / {

        proxy_pass      http://localhost:8080; # 转发

    }

}

# nginx 80端口配置 (监听react二级域名)

server {

    listen  80;

    server_name     react.msg.com;

    location / {

        proxy_pass      http://localhost:8081; # 转发

    }

}

nginx如果检测到vue.msg.com的请求,将原样转发请求到本机的8080端口,如果检测到的是react.msg.com请求,也会将请求转发到8081端口。

这样nginx对外就有四个服务,我们只需要公布80端口的就可以了,这样就实现了多个服务共用80端口。

Nginx防蜘蛛爬虫处理

假定一个场景:某个网站它可能不希望被网络爬虫抓取,例如测试环境不希望被抓取,以免对用户造成误导,那么需要在该网站中申明,本站不希望被抓取。有如下方法:

方法一:修改nginx.conf,禁止网络爬虫的ua,返回403。

server { 

listen 80; 

server_name 127.0.0.1; 

#添加如下内容即可防止爬虫

if ($http_user_agent ~* “qihoobot|Baiduspider|Googlebot|Googlebot-Mobile|Googlebot-Image|Mediapartners-Google|Adsbot-Google|Feedfetcher-Google|Yahoo! Slurp|Yahoo! Slurp China|YoudaoBot|Sosospider|Sogou spider|Sogou web spider|MSNBot|ia_archiver|Tomato Bot”) 

return 403; 

方法2:网站更目录下增加Robots.txt,放在站点根目录下。

http://tool.chinaz.com/robots/站点可以针对现在的搜索引擎按照想要的规则生成robots.txt文件。

知识扩展:

       robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。

当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

Robots协议是国际互联网界通行的道德规范,基于以下原则建立:

1、搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;

2、网站有义务保护其使用者的个人信息和隐私不被侵犯。

当然,如果搜索引擎不遵守约定的Robots协议,那么通过在网站下增加robots.txt也是不起作用的。(在正式环境中,可以适当允许搜索引擎抓取收录)