Linux Apache日志分析--命令

本文提供了一系列使用awk、sort等工具处理网站访问日志的方法,包括统计访问频次最高的IP地址、文件及页面,分析传输较大的文件类型,查找耗时最长的请求,统计特定状态码的出现次数等。这些技巧有助于快速定位问题并优化网站性能。

1.获得访问前10位的ip地址
cat access.log|awk ‘{print $1}’|sort|uniq -c|sort -nr|head -10


2.访问次数最多的文件或页面,取前10
cat access.log|awk ‘{print $11}’|sort|uniq -c|sort -nr|head -10

3.列出传输最大的几个exe文件
cat access.log |awk ‘($7~/\.exe/){print $10 ” ” $1 ” ” $4 ” ” $7}’|sort -nr|head -20

4.列出输出大于300000byte(约300kb)的exe文件以及对应文件发生次数
cat access.log |awk ‘($10 > 300000 && $7~/\.exe/){print $7}’|sort -n|uniq -c|sort -nr|head -100

5.列出到客户端最耗时的页面
cat access.log |awk ‘($7~/\.php/){print $NF ” ” $1 ” ” $4 ” ” $7}’|sort -nr|head -100

6.列出最最耗时的页面(超过60秒的)的以及对应页面发生次数
cat access.log |awk ‘($NF > 60 && $7~/\.php/){print $7}’|sort -n|uniq -c|sort -nr|head -100

7.列出传输时间超过30秒的文件
cat access.log |awk ‘($NF > 30){print $7}’|sort -n|uniq -c|sort -nr|head -20

8.统计网站流量(G)
cat access.log |awk ‘{sum+=$10} END {print sum/1024/1024/1024}’

9.统计404的连接
awk ‘($9 ~/404/)’ access.log | awk ‘{print $9,$7}’ | sort

10. 统计http status
cat access.log |awk '{print $9}'|sort|uniq -c|sort -rn'













本文转自super李导51CTO博客,原文链接:http://blog.51cto.com/superleedo/1886254 ,如需转载请自行联系原作者




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值