Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Nginx配置location总结及rewrite规则写法

Nginx配置location总结及rewrite规则写法

作者头像
星哥玩云
发布于 2022-07-29 06:27:20
发布于 2022-07-29 06:27:20
1.1K0
举报
文章被收录于专栏:开源部署开源部署

Nginx配置location总结及rewrite规则写法

location教程 示例:

location = / {     # 精确匹配 /,主机名后面不能带任何字符串     [ configuration A ]  } location / {     # 因为所有的地址都以/开头,所有这条规则将匹配到所有请求     # 但是正则和最长字符串会优先匹配     [ configuration B ] } location /documents/ {     # 匹配任何以/documents/开头的地址,匹配符合以后,还要继续往下搜索     # 只有后面的正则表达式没有匹配到时,这一条才会采用     [ configuration C ] } location ~ /documents/Abc {     # 匹配任何以 /documents/开头的地址,匹配符合以后,还要继续往下搜索     # 只有后面的正则表达式没有匹配到时,才会采用这一条      [ configuration CC ] } location ^~ /images/ {     # 匹配任何以/images/开头的地址,匹配符合以后,停止往下搜索正则,采用这一条     [ configuration D ] } location ~* \.(gif|jpg|jpeg)$ {     # 匹配所有以gif,jpg或jpeg结尾的请求     # 然而,苏朋友请求/images/下的图片会被config D处理,因为^~到达不了这一正则     [ configuration E ] } location /images/ {     # 字符匹配到 /images/,继续往下,会发现^~存在     [ configuration F ] } location /images/abc {     # 最长字符匹配到/images/abc,继续往下,会发现^~存在     # F与G的放置顺序是没有关系的     [ configuration G ] } location ~ /images/abc/ {     # 只有去掉config D才有效:先最长匹配config G开头的地址,继续往下搜索,匹配到这一正则,采用     [ configuration H ] } location ~* /js/.*/\.js

以=开头表示精确匹配。如A中只匹配根目录结尾的请求,后面不能带任何字符串。 ^~开头表示uri以某个常规字符串开头,不是正则匹配 ~开头表示区分大小写的正则匹配 ~*开头表示不区分大小写的正则匹配 /通用匹配,如果没有其它匹配,任何请求都会匹配到 顺序 && 优先级

(location =)> (location 完整路径) > (location ^~路径) > (location ~,~*正则顺序) > (location 部分起始路径) > (/)

实际使用建议 #至少有三个匹配规则定义,如下:

#直接匹配网站根,通过域名访问网站首页比较频繁,使用这个会加速处理

#直接转发给后端应用服务器,也可以是一个静态首页

# 第一个必选规则

+ View Code? 1 2 3 location = / {     proxy_pass http://tomcat:8080/index }

# 第二个必选规则是处理静态文件请求,nginx作为http服务器的强项

# 有两种配置模式,目录匹配或后缀匹配,任选其一或搭配使用

location ^~ /static/ {     root /webroot/static/; } location ~* \.(gif|jpg|jpeg|png|css|js|ico)$ {     root /webroot/res/; }

# 第三个规则是通用规则,用来转发动态请求道后端应用服务器

location / {     proxy_pass http://tomcat:8080/ }

Rewrite教程 功能:使用nginx提供的全局变量或自己设置的变量,结合正则表达式和标志位实现url重写以及重定向。rewrite只能放在server{},location{},if{}中,并且只能对域名后边的除去传递参数外的字符串起作用,例如http://linuxidc.com/a/we/index.php?id=1&u=str只对/a/we/index.php重写

语法:rewrite regex replacement [flag];

如果想对域名或参数字符串起作用,可以使用全局变量匹配,也可以使用proxy_pass反向代理。

rewrite和location异同:同:都能实现跳转;异:rewrite是在同一域名内更改获取资源的路径,而location是对另一类路径做控制访问或反向代理,可以proxy_pass到其他机器。

执行顺序:

server块的rewrite指令 location匹配 选定location中的rewrite指令,如果其中某步url被重写,则重写循环执行1-3,直到找到真是存在的文件;循环超过10次,则返回500 Internal Server Error错误 flag标志位 last:相当于Apache的[L]标记,表示完成rewrite break:停止执行当前虚拟主机的后续rewrite指令集 redirect:返回302临时重定向,地址栏会显示跳转后的地址 permanent:返回301永久重定向,地址栏会显示跳转后的地址 因为301和302不能简单的只返回状态码,还必须有重定向的URL,这就是return指令无法返回301,302的原因

last和break的异同:

last一般写在server和if中,而break一般使用在location中 last不终止重写后的url匹配,即新的url会再从server走一遍匹配流程,而break终止重写后的匹配 break和last都能组织继续执行后面的rewrite指令 if指令与全局变量 if判断指令 语法:if(condition){...},对给定的条件condition进行判断。如果为真,大括号内的rewrite指令将被执行,if条件(condition)可以是如下任何内容:

当表达式只是一个变量时,如果值为空或任何以0开头的字符串都会当做false

直接比较变量和内容是,使用=或!=

~ 正则表达式匹配,~* 不区分大小写的匹配,!~ 区分大小写的不匹配

-f  和!-f 用来判断是否存在文件 -d 和 !-d 用来判断是否存在目录 -e 和 !-e 用来判断是否存在文件或目录 -x 和 !-x 用来判断文件是否可以执行

例如:

if ($http_user_agent ~ MSIE) {     rewrite ^(.*)$ /msie/$1 break; } #如果UA包含”MSIE“,rewrite请求到/msie/目录下 if ($http_cookie ~* "id=([^;]+)(?:;|$)") {     set $id $1; } #如果cookie匹配正则,设置变量$id等于正则引用部分 if ($request_method =POST) {     return 405; } #如果提及方法为POST,则返回状态405(Method not allowed)。return不能返回301,302 if ($slow) {     limit_rate 10k; } #限速,$slow可以通过set指令设置 if (!-f $request_filename){     break;     proxy_pass  http://127.0.01; } #如果请求的文件名不存在,则反向代理到localhost。这里的break也是停止rewrite检查 if ($args ~ post=140){     rewrite ^ http://example.com/ permanent; } # 如果query string中包含”post=140“,永久重定向到example.com location ~* \.(gif|jpg|png|swf|flv)$ {       valid_referers none blocked www.linuxmi.com www.linuxidc.com;       if ($invalid_referer) {           return 404;       } #防盗链 }

全局变量

下面是可用作if判断的全局变量

$args: 这个变量等于请求行中的参数,同$query_string $content_length : 请求头中的Conten-length字段 $content_type :请求头中的Content-Type字段 $document_root :请求在root指令中指定的值 $host :请求主机头字段,否则为服务器名称 $http_user_agent:客户端agent信息 $http_cookie:客户端cookie信息 $limit_rate : 限制连接速率 $request_method :客户端请求的动作,通常为GET或POST $remote_addr:客户端的IP地址 $remote_port : 客户端的端口 $remote_user:已经经过Auth Basic Module验证的用户名 $request_filename:当前请求的文件路径,由root或alias指令与URL请求生成 $scheme:HTTP方法(如http,https) $server_protocol:请求使用的协议,通常是HTTP/1.0或HTTP/1.1 $server_addr:服务器地址,在完成一次系统调用后可以确定这个值 $server_name:服务器名称 $server_port:请求到达服务器的端口号 $request_url:包含请求参数的原始url,不包含主机名,如“/foo/bar.php?arg=baz” $url:不带请求参数的当前url,$url不包含主机名,如“/foo/bar.html” $document_url:与$url相同 示例:http://localhost:88/test1/test2/test.php

$host:localhost

$server_port:88

$request_url:http://localhost:88/test1/test2/test.php

$document_url:/test1/test2/test.php

$document_root:/var/www/html

$request_filename:/var/www/html/test1/test2/test.php

常用正则 .:匹配除换行符以外的任意字符 ?:重复0次或1次 +:重复1次或更多次 *:重复1次或更多次 \d:匹配数字 ^:匹配字符串的开始 $:匹配字符的结尾 {n}:重复n次 {n,}:重复n次或更多次 [c]:匹配单个字符c [a-z]:匹配a-z小写字母的任意一个小括号()之间匹配的内容,可以再后面通过$1来引用,$2表示的前面第二个()里的内容。正则中容易让人困惑的是\转义特殊字符

rewrite实例

例1:

http {        # 定义image日志格式     log_format imagelog '[$time_local] ' $image_file ' ' $image_type ' ' $body_bytes_sent ' ' $status;     # 开启重写日志     rewrite_log on;     server {           root /home/www;           location / {                   # 重写规则信息                   error_log logs/rewrite.log notice;                   # 注意这里要用''单引号引起来,避免{}                   rewrite '^/images/([a-z]{2})/([a-z0-9]{5})/(.*)\.(png|jpg|gif)$' /data?file=$3.$4;                   # 注意不能在上面这条规则后面加上”last“参数,否则下面的set指令不会执行                   set $image_file $3;                   set $image_type $4;           }           location /data {                   # 指定针对图片的日志格式,来分析图片类型和大小                   access_log logs/images.log main;                   root /data/images;                   # 应用前面定义的变量。首先判断文件在不在,不在再判断目录在不在,如果也不在酒跳转到最后一个url里                   try_files /$arg_file /image404.html;           }           location = /image404.html {                   # 图片不存在返回特定的信息                   return 404 "image not found\n";           } }

对形如/images/ef/uh7b3/test.png的请求,重写到/data?file=test.png,于是匹配到location /data ,先看/data/images/test.png 文件存不存在,如果存在则正常响应,如果不存在则重写tryfiles到新的image404 location,直接返回404状态码。

例2:

rewrite ^/images/(.*)_(\d+)x(\d+)\.(png|jpg|gif)$ /resizer/$1.$4?width=$2&height=$3? last;

对形如/images/bla_500x400.jpg的文件请求,重写到/resizer/bla.jpg?width=500&height=400地址,并会继续尝试匹配location

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
利用ELK分析Nginx日志生产实战(高清多图)
本文以api.mingongge.com.cn域名为测试对象进行统计,日志为crm.mingongge.com.cn和risk.mingongge.com.cn请求之和(此二者域名不具生产换环境统计意义),生产环境请根据具体需要统计的域名进行统计。
民工哥
2020/09/16
1.9K0
通过ELK快速搭建集中化日志平台
在项目初期的时候,大家都是赶着上线,一般来说对日志没有过多的考虑,当然日志量也不大,所以用log4net就够了,随着应用的越来越多,日志散落在各个服务器的logs文件夹下,确实有点不大方便,这个时候就想到了,在log4net中配置 mysql的数据源,不过这里面有一个坑,熟悉log4net的同学知道写入mysql有一个batch的阈值,比如说batchcache中有100条,才写入mysql,这样的话,就有一个延迟的效果,而且如果batchcache中不满100条的话,你在mysql中是看不到最新的100条日志。而且采用中心化的mysql,涉及到tcp传输,其中的性能大家也应该明白,而且mysql没有一个好的日志界面,只能自己去写UI,所以还还得继续寻找其他的解决方案,也就是本篇的ELK。
星哥玩云
2022/07/19
6772
通过ELK快速搭建集中化日志平台
ELK5.0安装教程
ELK升级后,安装稍微发生了点变化,在Elasticsearch中增加了很多资源上的限制,其他的倒是没什么变化。不过所有的安装都是基于JDK已经安装完的情况,且为1.8版本。 安装Elasticsearch 在官网下载elsaticsearch安装包: 下载地址 下载对应版本拷贝到服务器,然后执行下面命令解压缩: tar -zxvf elasticsearch-5.2.2.tar.gz 解压后进入对应的目录,修改配置文件: cluster.name: page-cluster node.name:
用户1154259
2018/01/17
9200
安装Kibana
地址:https://www.elastic.co/cn/downloads/past-releases/kibana-6-7-2
HLee
2021/01/04
1K0
安装Kibana
Docker 入门到实战教程(十二)ELK+Filebeat搭建日志分析系统
一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。
小东啊
2020/07/23
4.7K1
Docker 入门到实战教程(十二)ELK+Filebeat搭建日志分析系统
ELK日志系统之通用应用程序日志接入方案
规范的日志存放路径和输出格式将为我们后续的收集和分析带来极大的方便,无需考虑各种不同路径、格式的兼容问题,只需要针对固定几类日志做适配就可以了,具体的规范如下:
37丫37
2019/01/03
2.5K0
ELK日志分析系统安装和部署
1.1 平台环境: OS:CentOS release 6.4(Final) ElasticSearch:6.3.2 Logstash:6.3.2 Kibana:6.3.2 JRE:1.8
星哥玩云
2022/07/27
1.1K0
ELK日志分析系统安装和部署
Spring Boot 搭建 ELK,这才是正确看日志的方式!
在看大型网站的中间件技术,对于Elasticsearch有点兴趣,所以将配置流程记录了一下。
PHP开发工程师
2021/05/17
2.2K0
Spring Boot 搭建 ELK,这才是正确看日志的方式!
部署 Kubernetes 集群日志插件 Fluentd、Elasticsearch、Kibana
哎_小羊
2018/01/02
7.5K0
部署 Kubernetes 集群日志插件 Fluentd、Elasticsearch、Kibana
Elastic Stack之 Kibana 6.7.1版本安装
1、截至目前Elasticsearch 版本已经更新到了7.10.1版本了,这里先使用Kibana 6.7.1版本,给一个下载地址,如下所示:
别先生
2021/01/13
7140
ELK-elasticsearch-6.3.2部署
参考博客:linux下ElasticSearch.6.2.2集群安装与head、Kibana、X-Pack..插件的配置安装
踏歌行
2020/10/15
5270
ELK-elasticsearch-6.3.2部署
ELK 搭建4
安装kibana 准确来说,只用解压就可以了 [root@h102 ELK]# ls elasticsearch-2.1.1.rpm GPG-KEY-elasticsearch kibana-4.3.1-linux-x64.tar.gz logstash-2.1.1-1.noarch.rpm [root@h102 ELK]# tar -zxvf kibana-4.3.1-linux-x64.tar.gz kibana-4.3.1-linux-x64/ kibana-4.3.1-linux-x64/b
franket
2022/02/11
2670
ElasticStack的入门学习
1、Elasticsearch 6.x版本的安装,我这里使用Elasticsearch 6.7.0版本的。
别先生
2019/10/29
6550
ElasticStack的入门学习
ELK+filebeat采集java日志
此文章是我在生产环境下搭建ELK日志系统的记录,该日志系统主要是采集Java日志,开发人员能通过kibanaWeb页面查找相关主机的指定日志;对于Java日志,filebeat已做多行合并、过滤行处理,更精准的获取需要的日志信息,关于ELK系统的介绍,这里不再赘述。
肓己
2021/08/12
1.8K0
ELK实时日志分析平台环境部署--完整记录
在日常运维工作中,对于系统和业务日志的处理尤为重要。今天,在这里分享一下自己部署的ELK(+Redis)-开源实时日志分析平台的记录过程(仅依据本人的实际操作为例说明,如有误述,敬请指出)~ 一、概念介绍 日志主要包括系统日志、应用程序日志和安全日志。系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。 通常,日志被分散的储存不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的
洗尽了浮华
2018/01/22
2.1K0
ELK实时日志分析平台环境部署--完整记录
搭建ELFK日志采集系统
最近的工作涉及搭建一套日志采集系统,采用了业界成熟的ELFK方案,这里将搭建过程记录一下。
jeremyxu
2019/03/13
2.6K0
搭建ELFK日志采集系统
可视化kibana搭建
安装包下载 注意elasticsearch版本应与kibana版本一致,否则error # 1.上传服务器解压 [root@summer opt]# tar xvf kibana-6.3.1-linux-x86_64.tar.gz # 2.修改配置文件 配置文件路径 kibana-6.3.1-linux-x86_64/config/kibana.yml 主要修改点 server.host: "192.168.0.9" elasticsearch.url: "http://192.168.0.9:2
summerking
2022/09/19
3230
可视化kibana搭建
Elasticsearch 5.x 安装X-Pack
x-pack是elasticsearch的一个扩展包,将安全,警告,监视,图形和报告功能捆绑在一个易于安装的软件包中,也是官方推荐的。
程裕强
2022/05/06
7270
Elasticsearch 5.x 安装X-Pack
Centos7下ELK+Redis日志分析平台的集群环境部署记录
之前的文档介绍了ELK架构的基础知识(推荐参考下http://blog.oldboyedu.com/elk/),日志集中分析系统的实施方案: - ELK+Redis - ELK+Filebeat - ELK+Filebeat+Redis - ELK+Filebeat+Kafka+ZooKeeper
洗尽了浮华
2018/08/01
1.6K0
Centos7下ELK+Redis日志分析平台的集群环境部署记录
011.ELK使用Kafka做缓存收集Nginx日志
1. 流程说明 2. 配置过程 2.1 nginx配置 log_format json '{"time_local": "$time_local", '
CoderJed
2020/05/04
6840
相关推荐
利用ELK分析Nginx日志生产实战(高清多图)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档