1. 配置错误日志 Error Log
Nginx 将遇到的不同严重级别问题的信息写入错误日志。 error_log 指令设置对特定文件,stderr 或 syslog 的日志记录,并指定要记录的消息的最低严重级别。 默认情况下,错误日志位于 logs/error.log(绝对路径取决于操作系统和安装),并且默认记录所有严重级别的消息。
下面的配置将记录错误信息的最低级别从 error 改为 warn:
error_log logs/error.log warn;
此时,warn、error crit、alert 和 emerg 这几种级别的消息会写入日志。
错误日志的默认设置在全局范围内有效。为了覆盖这个设置,可以在主配置文件的顶级上下文中使用 error_log 指令。主配置文件的顶级上下文中的设置可以被其他的配置上下文继承。error_log 还可以在 http、stream、server 和 location 上下文中制定,从而覆盖上层上下文中的设置。发生错误时,相关信息只会写入和错误最相关的上下文指定的那个错误日志。然而,如果在同一个上下文中使用了多个 error_log 指令,错误信息会写入所有指定的日志中。
2. 配置访问日志 Access Log
Nginx 会在客户端请求处理完成后,立刻把相关信息写入访问日志。默认情况下,访问日志位于 logs/access.log,并且信息会以预定义的组合格式写入日志。要覆盖默认设置,可以使用 log_format 指令更改日志消息的格式, access_log 指令指明日志位置和格式。日志格式用变量定义。
常见的日志变量
$remote_addr, $http_x_forwarded_for | 记录客户端IP地址 |
$remote_user | 记录客户端用户名称 |
$request | 记录请求的URL和HTTP协议(GET,POST,DEL,等) |
$status | 记录请求状态 |
$body_bytes_sent | 发送给客户端的字节数,不包括响应头的大小; 该变量与Apache模块mod_log_config里的“%B”参数兼容。 |
$bytes_sent | 发送给客户端的总字节数。 |
$connection | 连接的序列号。 |
$connection_requests | 当前通过一个连接获得的请求数量。 |
$msec | 日志写入时间。单位为秒,精度是毫秒。 |
$pipe | 如果请求是通过HTTP流水线(pipelined)发送,pipe值为“p”,否则为“.”。 |
$http_referer | 记录从哪个页面链接访问过来的 |
$http_user_agent | 记录客户端浏览器相关信息 |
$request_length | 请求的长度(包括请求行,请求头和请求正文)。 |
$request_time | 请求处理时间,单位为秒,精度毫秒; 从读入客户端的第一个字节开始,直到把最后一个字符发送给客户端后进行日志写入为止。 |
$time_iso8601 ISO8601 | 标准格式下的本地时间。 |
$time_local | 通用日志格式下的本地时间。 |
log_format 定义日志格式
语法格式: log_format name [escape=default|json] string ...;
默认值 : log_format combined "...";
作用域 : http
实例
main格式
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"'
'$upstream_addr $upstream_response_time $request_time ';
access_log logs/access.log main;
json格式
log_format logstash_json '{"@timestamp":"$time_iso8601",'
'"host": "$server_addr",'
'"client": "$remote_addr",'
'"size": $body_bytes_sent,'
'"responsetime": $request_time,'
'"domain": "$host",'
'"url":"$request_uri",'
'"referer": "$http_referer",'
'"agent": "$http_user_agent",'
'"status":"$status",'
'"x_forwarded_for":"$http_x_forwarded_for"}';
压缩格式
http {
log_format compression '$remote_addr - $remote_user [$time_local] '
'"$request" $status $body_bytes_sent '
'"$http_referer" "$http_user_agent" "$gzip_ratio"';
server {
gzip on;
access_log /spool/logs/nginx-access.log compression;
...
}
}
upstream格式
增加upstream消耗的时间。
http {
log_format upstream_time '$remote_addr - $remote_user [$time_local] '
'"$request" $status $body_bytes_sent '
'"$http_referer" "$http_user_agent"'
'rt=$request_time uct="$upstream_connect_time" uht="$upstream_header_time" urt="$upstream_response_time"';
server {
access_log /spool/logs/nginx-access.log upstream_time;
...
}
}
3. 启用条件日志记录(Conditional Logging)
条件日志记录允许从访问日志中排除不重要日志(trivial)或不重要的日志条目(unimportant log entries)。 在 Nginx 中,条件日志记录由 access_log 指令的 if 参数启用。
下面的例子中,将 HTTP 状态码为 2XX(成功)和 3XX(重定向)的请求排除:
map $status $loggable {
~^[23] 0;
default 1;
}
access_log /path/to/access.log combined if=$loggable;
4.open_log_file_cache设置日志文件缓存
每一条日志记录的写入都是先打开文件再写入记录,然后关闭日志文件。如果你的日志文件路径中使用了变量,如access_log /var/logs/$host/nginx-access.log,为提高性能,可以使用open_log_file_cache指令设置日志文件描述符的缓存。
语法
open_log_file_cache max=N [inactive=time] [min_uses=N] [valid=time];
- max 设置缓存中最多容纳的文件描述符数量,如果被占满,采用LRU算法将描述符关闭。
- inactive 设置缓存存活时间,默认是10s。
- min_uses 在inactive时间段内,日志文件最少使用几次,该日志文件描述符记入缓存,默认是1次。
- valid:设置多久对日志文件名进行检查,看是否发生变化,默认是60s。
- off:不使用缓存。默认为off。
作用域:http、server、location。
基本用法
open_log_file_cache max=1000 inactive=20s valid=1m min_uses=2;
例子中,设置缓存最多缓存1000个日志文件描述符,20s内如果缓存中的日志文件描述符至少被被访问2次,才不会被缓存关闭。每隔1分钟检查缓存中的文件描述符的文件名是否还存在。
5.日志切割
nginx日志默认情况下统统写入到一个文件中,文件会变的越来越大,非常不方便查看分析。以日期来作为日志的切割是比较好的,通常我们是以每日来做统计的。下面来说说nginx日志切割。
切割nginx日志,我们可以通过两种不同的方式进行,分别是:通过logrotate和通过shell脚本。
这里介绍下使用shell脚本方式进行切割日志。
shell脚本内容如下:
vi /usr/local/cut_del_logs.sh
#!/bin/bash
#初始化
LOGS_PATH=/var/log/nginx
YESTERDAY=$(date -d "yesterday" +%Y%m%d)
#按天切割日志
mv ${LOGS_PATH}/access.log ${LOGS_PATH}/access_${YESTERDAY}.log
#向nginx主进程发送USR1信号,重新打开日志文件,否则会继续往mv后的文件写数据的。原因在于:linux系统中,内核是根据文件描述符来找文件的。如果不这样操作导致日志切割失败。
kill -USR1 `ps axu | grep "nginx: master process" | grep -v grep | awk '{print $2}'`
#删除7天前的日志
cd ${LOGS_PATH}
find . -mtime +7 -name "*20[1-9][3-9]*" | xargs rm -f
exit 0