WEB日志的一般性分析

http://www.sunnyu.com/?p=8

随着网站正式运行,我们可以通过通用的免费日志分析工具比如awstats 获得一些实际访问网站的信息,例如每天ip量,pv量,用户所用的的浏览器,用户所用的操作系统等,但是有时候希望通过手工方式从WEB日志文件中获得一些信息,下面列出了一些最近一段时间我经常在用的命令

获得访问前10位的ip地址

  1. cat access.log | gawk '{print $1}' | sort | uniq -c | sort -nr | head -10

访问次数最多的文件或页面

  1. cat access.log | gawk '{print $11}' | sort | uniq -c | sort -nr

通过子域名访问次数,依据referer来计算,稍有不准

  1. cat access.log | awk '{print $11}' | sed -e ' s/http:\/ \/ //' -e ' s/\/ .*//' | sort | uniq -c | sort -rn | head -20

列出传输大小最大的几个文件

  1. cat www.access.log | awk '($7~/\. php/){print $10 " " $1 " " $4  " " $7}' | sort -nr | head -100

列出输出大于200000byte(约200kb)的页面以及对应页面发生次数

  1. cat www.access.log | awk '($10 > 200000 && $7~/\. php/){print $7}' | sort -n | uniq -c | sort -nr | head -100

如果日志最后一列记录的是页面文件传输时间,则有列出到客户端最耗时的页面

  1. cat www.access.log | awk '($7~/\. php/){print $NF " " $1 " " $4  " " $7}' | sort -nr | head -100

列出最最耗时的页面(超过60秒的)的以及对应页面发生次数

  1. cat www.access.log | awk '($NF > 60 && $7~/\. php/){print $7}' | sort -n | uniq -c | sort -nr | head -100

列出传输时间超过 30 秒的文件

  1. cat www.access.log | awk '($NF > 30){print $7}' | sort -n | uniq -c | sort -nr | head -20

列出当前服务器每一进程运行的数量,倒序排

  1. ps -ef | awk -F ' ' '{print $8 " " $9}' | sort | uniq -c | sort -nr | head -20
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值