三剑客之awk

AWK

pattern scanning and processing language
模式扫描和处理语言,文本报告生成器
简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行各种分析处理.


awk有3个不同版本:
awk,nawk和gawk
未作特别说明,linux系统中一般指gawk,gawk是 AWK 的 GNU 版本.


awk其名称得自于它的创始人 Alfred Aho 、Peter Weinberger 和 Brian Kernighan 姓氏的首个字母.实际上 AWK 的确拥有自己的语言:AWK 程序设计语言,三位创建者已将它正式定义为"样式扫描和处理语言".它允许创建简短的程序,这些程序读取输入文件、为数据排序、处理数据、对输入执行计算以及生成报表,还有无数其他的功能.

使用格式

awk [options] -f progfile [--] file ...
awk [options] [--] 'program' file ...
awk [options] 'BEGIN{ action;… } pattern{ action;… } END{ action;… }' file ...

program:相当于编程语言,也就是处理后面文件的一系列操作语句
progfile:带有program或BEGIN等操作语句内容的文件
BEGIN:读取输入流前进行操作的标志 ,读取前操作
END:输入流读取完后进行操作的标志 ,读取后操作
pattern:模式,对输入流进行操作
action:处理动作语言,由多种语句组成,语句间用分号分割

options
-F : 指明输入分隔符,表示读取文件内容时以什么符号为分隔符进行切片
-v var=value: 自定义变量
-f progfile, --file=progfile: 从文件中来读取awk的program

program
PATTERN(模式){ACTION STATEMENTS(动作语句);ACTION STATEMENTS;...}

action
表达式Expressions
控制语句Control Statements
组合语句Compound statements
输入语句Input Statements
输出语句Output Statements

工作原理

格式:

awk [options] 'BEGIN{ action;… } pattern{ action;… } END{ action;… }' file ...

第一步:执行[option]相关内容,也就是-f,-F,-v选项内容;
第二步:执行BEGIN{action;… } 语句块中的语句;
BEGIN 语句块在awk开始从输入流中读取行之前被执行,这是一个可选的语句块,比如变量初始化、打印输出表格的表头等语句通常可以写在BEGIN语句块中;

第三步:从文件或标准输入(stdin) 读取每一行,然后执行pattern{action;… }语句块,它逐行扫描文件,从第一行到最后一行重复这个过程,直到文件全部被读取完毕.
pattern语句块中的通用命令是最重要的部分,也是可选的.如果没有提供pattern 语句块,则默认执行{print},即打印每一个读取到的行,awk读取的每一行都会执行该语句块;

第四步:当读至输入流末尾时,也就是所有行都被读取完执行完后,再执行END{action;…}语句块.
END语句块在awk从输入流中读取完所有的行之后即被执行,比如打印所有行的分析结果这类信息汇总都是在END语句块中完成,它也是一个可选语句块.

awk语言的最基本功能是在文件或者字符串中基于指定规则浏览和抽取信息,awk抽取信息后,才能进行其他文本操作.
完整的awk脚本通常用来格式化文本文件中的信息.
通常,awk是以文件的一行为处理单位的。awk每接收文件的一行,然后执行相应的命令,来处理文本.

打印输出

print函数的参数可以是变量、数值或者字符串。字符串必须用双引号引用,参数用逗号分隔。如果没有逗号,参数就串联在一起而无法区分。这里,逗号的作用与输出文件的分隔符的作用是一样的,只是后者是空格而已。
printf函数,其用法和c语言中printf基本相似,可以格式化字符串,输出复杂时,printf更加好用,代码更易懂.

print
使用格式:
print item1,item2,...

示例:

awk -F: '{print "hello!",$1}' /etc/passwd
"""
hello! root
hello! bin
"""
awk -F: '{print}' /etc/passwd awk -F: '{print "hello"}' /etc/passwd awk -F: '{print $0}' awk -F: '{print "hello",$1}' /etc/passwd awk -F: '{print "hello",$1,"\t",$7}' /etc/passwd tail -3 /etc/fatab | awk '{print $2,$4}'

# 统计/etc/passwd用户数量 awk '{count++;print $0;} END{print "user count is ", count}' /etc/passwd """ root:x:0:0:root:/root:/bin/bash ...... user count is 40 """
# 优化:
awk 'BEGIN {count=0;print "[start]user count is ", count} {count=count+1;print $0;} END{print "[end]user count is ", count}' /etc/passwd

注意:
1,逗号为分隔符时,最终显示的是空格;
2,分隔符分隔的字段(域)标记称为域标识,默认空格为分隔符,用$0,$1,$2,...,$n表示,其中$0为所有域,$1就是表示第一个字段(域),以此类推,$nf为最后 ;
3,输出的各item可以字符串(字串必须双引号),也可以是数值,当前记录的字段,变量或awk的表达式等 ;
4,如果省略了item,相当于print $0 ;

printf

格式化输出
printf "format",item1,item2,...

注意:
必须指定format,即必须指出后面每个itemsN的输出格式;
不会自动换行,需要自行给出换行控制符"\n";
format中需要分别为后面的每个item指定一个格式化符号

format格式符
%c: 显示字符的ASCII码
%d,%i:显示为十进制整数
%e,%E:科学计算法显示数值
%f:显示为浮点数
%g,%G:以科学计数法或浮点数格式显示数值
%s:显示字符串
%u:显示无符号整数
%%:显示%自身

format修饰符
格式: #[.#],如%3.1f
第一个#表示显示宽度,第二个#表示小数点后的精度
-: 左对齐
+: 显示数值的符号

示例:

awk -F: '{printf "Username:%s, UID:%d\n",$1,$3}' /etc/passwd
"""
Username:root, UID:0
...
"""

# 将显示的用户名宽带统一设置为15,默认是右对齐
awk -F: '{printf "Username:%15s, UID:%d\n",$1,$3}' /etc/passwd
"""
Username:      root, UID:0
Username:       bin, UID:1
...
"""

输出重定向
print items > output-file
print items >> output-file
print items | command
特殊文件描述符:
    /dev/stdin:标准输入
   /dev/stdout:标准输出
   /dev/stderr:错误输出

变量

内置变量
FS(Filed Seperator):输入时的字段分隔符
OFS(Output Filed Seperator):输出时的分隔符,默认为空白字符
RS(Record Seperator):输入时的行分隔符,默认回车
ORS(Output Record Seperator):输出时的行分隔符
NF(Numbers of Field):显示每行的字段总数
NR(Numbers of Record):显示行数,默认计数所有的文件
FNR(Field Numbers of Record):行号,各文件分别计数
ARGV: 数组,保存的是命令行所给的各个参数,ARGV[0]指命令本身,ARGV[1]指第一个参数,以此类推
ARGC: 统计命令行参数的个数
FILENAME:awk正在处理的当前文件的名称

示例:

awk 'BEGIN{FS=":"}{print "hello!",$1}' /etc/passwd
"""
hello! root
...
hello! ntp
"""
# 输入时以冒号分割,输出时以@@分割,注意:语句和语句间用分号;分隔 awk 'BEGIN{FS=":";OFS="@@"}{print "hello!",$1}' /etc/passwd """ hello!@@root ... hello!@@ntp """
cat /etc/passwd """ root:x:0:0:root:/root:/bin/bash ... """
# 输入时以冒号为换行符 awk 'BEGIN{RS=":"}{print "hello:",$1}' /etc/passwd """ hello: root hello: x hello: 0 hello: 0 hello: root hello: /root hello: /bin/bash ... """
# 输入时以冒号为换行符,输出时以###为换行符 awk -v RS=':' -v ORS='###' '{print }' /etc/passwd """ root###x###0###0###root###/root###/bin/bash """
# 显示每行字段总数,$NF表示最后一个字段 awk -F: '{print NF}' /etc/passwd awk -F: '{print $NF}' /etc/passwd
# 显示行号 awk '{print NR}' /etc/fstab """ 1 2 .. 15 """
# 跟多个文件,行号累加计数 awk '{print NR}' /etc/fstab /etc/passwd """ 1 2 ... 15 16 ... 35 """
# 跟多个文件,行号分开计数 awk '{print FNR}' /etc/passwd /etc/fstab """ 1 2 ... 15 1 ... 20 """
awk 'BEGIN{print ARGV[0],ARGV[1],ARGC}' /etc/passwd /etc/fstab /etc/group """ awk /etc/passwd 4 """
# 统计/etc/passwd:文件名,每行的行号,每行的列数,对应的完整行内容 awk -F ':' '{print "filename:" FILENAME ",linenumber:" NR ",columns:" NF ",linecontent:"$0}' /etc/passwd
awk 'BEGIN{print ARGC}' /etc/fstab /etc/passwd awk 'BEGIN{print ARGV[0]}' /etc/fstab /etc/passwd awk 'BEGIN{print ARGV[1]}' /etc/fstab /etc/passwd awk 'BEGIN{print ARGV[2]}' /etc/fstab /etc/passwd

 

自定义变量

定义方法
方法1:awk -v var1=value1 -v var2=value2 ...
方法2:在program中直接定义
注:变量名区分字符大小写

例如:

awk -v a='hello,awk' 'BEGIN{print a}'

awk 'BEGIN{a="hello,awk.";print a}'
"""
hello,awk.
"""

awk -v a='hello,awk' '{print a}' /etc/passwd

awk 'BEGIN{a="hello,awk."}{print a}' /etc/passwd
"""
hello,awk.
...
"""

awk -F: '{sex="male";age=20;print $1,sex,age}' /etc/passwd
"""
root male 20
bin male 20
...
"""

echo "{print script,\$1,\$2}" > awkscript
awk -F: -f awkscript script="hello,awk" /etc/passwd
"""
hello,awk root x
...
"""

注意: 在awk中,变量的引用无需加$符号,区别于bash

操作符

算术操作符:x+y, x-y, x*y, x/y, x^y, x%y
赋值操作符:=, +=, -=, *=, /=, %=, ^=,++, --
比较操作符:==, !=, >, >=, <, <=
字符串操作符: 没有符号的操作符,如字符串拼接

模式匹配符:
~ 模式匹配,左边的字符串能够被右边的模式所匹配为真
!~ 不匹配为真

逻辑操作符:
与: &&
或: ||
非: !

条件表达式(三目表达式):
selector?if-true-expression:if-false-expression

示例:

awk '$0~"^root"' /etc/passwd
awk -F: '$3 == 0' /etc/passwd
awk -F: '$3 >= 0 && $3 <= 10 {print $1,$3}' /etc/passwd
awk -F: '$3 == 0 || $3 >= 10 {print $1,$3}' /etc/passwd
awk -F: '!($3==0) {print $1,$3}' /etc/passwd
awk -F: '!($3>=500) {print $1,$3}' /etc/passwd
# 判断用户uid是否大于500,大于500的则显示为普通用户,小于等于500的则显示为系统用户或管理员
awk -F: '{$3>=500?utype="common user.":utype="admin or system user.";printf "%15s:%-s\n",$1,utype}' /etc/passwd


函数调用
function_name(argu1,argu2,...)

模式pattern

1,未指定,表示空模式,全文处理,匹配每一行;
2,/regular expression/: 仅处理被匹配到的行,支持RE正则,需要//括起来;
3,比较表达式(Expression):关系表达式,其结果为非0或非空字符串时为真, 被匹配;
4,范围表达式(Ranges):行范围,此前称为地址界定,startline,endline, /pat1/,/pat2/
5,BEGIN/END:仅在开始处理文件中的文本之前|之后执行一次,
示例:

# 找到匹配'root'的行并打印
awk -F: '/root/{print}' /etc/passwd

# 找到开头匹配root的行并打印
awk -F: '/^root/{print}' /etc/passwd

# 找到uid大于等于100的行,然后打印第1,3字段
awk -F: '$3>=100{print $1,$3}' /etc/passwd

# 打印显示第一次匹配h开头的行,到第一次匹配u开头的行
awk -F: '/^h/,/^u/{print $1}' /etc/passwd

# 显示行号在2-5间的行并显示这些行的行号和第一个字段
awk -F: '(NR>=2 && NR<=5){print NR,$1}' /etc/passwd

# 找到/etc/passwd中bash为/sbin/nologin的行,打印其第name和bash
awk -F: '$NF=="/sbin/nologin"{print $1,$NF}' /etc/passwd

awk -F: 'BEGIN{print "      USER      USERID"}{printf "|%8s| %10d|\n",$1,$3}END{print "END FILE"}' /etc/passwd
"""
      USER      USERID
|    root|          0|
|     bin|          1|
...
"""

控制语句

if-else
语法:

如果满足条件,就行statement
if(condition){statement;...}

如果满足条件1就执行statement1,否则执行statement2
if(condition){statement1;...}else {statement2}

满足条件1,执行statement1,满足条件2,执行statement2,否则执行statement3
if(condition1){statement1}else if(condition2){statement2}else{statement3}

应用场景: 对awk取得的整行或某个字段做条件判断

示例

# 如果uid大于等于1000,就显示这个用户
awk -F: '{if($3>=10) {print $1,$3}}' /etc/passwd

# 如果uid大于等于500,就显示这个用户是普通用户,否则就显示这个用户是系统用户
awk -F: '{if($3>=500) {printf "common user: %s\n",$1} else {printf "system user: %s\n",$1}}' /etc/passwd

# 打印shell为/bin/bash的用户
awk -F: '{if($NF=="/bin/bash") {print $1}}' /etc/passwd

# 显示字段大于10的行
awk '{if(NF>10) {print $0}}' /etc/fstab

# 打印使用率超过80%的分区
df -h | awk -F% '/^\/dev/{print $1}'|awk '$NF>=80{print $1,$5}'

# 判断test值,如果大于90,显示very good
awk 'BEGIN{test=100;if(test>90){print "very good"}else if(test>60){print "good"}else{print "no pass"}}'


while
语法:

条件为''时,进入循环,否则退出循环
while(condition){statement;...}

无论'真假',先至少执行一次循环,完了当条件为''时,继续循环,当条件为''时,退出循环
do {statement;...}while(conding)

应用场景: 对一行内的多个字段逐一类似处理时使用
示例

# 计算1-100的和
awk 'BEGIN{total=0;i=0;do{total+=i;i++}while(i<=100);print total}'

# 打印以任意空白linux16开头的行,以空格分割,统计每个字段的字符个数
awk '/^[[:space:]]*linux16/{i=1;while(i<=NF){print $i,length($i); i++}}' /etc/grub2.cfg

# 遍历以任意空白linux16开头的行,以空格分割,统计每个字段的字符个数,打印显示字符个数大于等于7的行
awk '/^[[:space:]]*linux16/{i=1;while(i<=NF) {if(length($i)>=7) {print $i,length($i)}; i++}}' /etc/grub2.cfg

# 取出/etc/inittab文件中,每一行中,字符串的长度大于等于6的字串
awk '{i=1; while (i<=NF){if (length($i)>=6) {print $i}; i++ }}' /etc/inittab

注:length():内置函数,取字符串的长度

 

for循环
语法:

for(var assignment; condition; iteration process){for-body}
for (变量赋值;条件判断;迭代语句){循环体动作}

for循环还可用来遍历数组元素,遍历的是数组中的元素的下标
语法:

for (var in array) {for body}
变量var遍历数组array,每次遍历执行for-body

示例

# 打印以任意空白linux16开头的行,以空格分割,统计每个字段的字符个数
awk '/^[[:space:]]*linux16/{for(i=1;i<=NF;i++){print $i,length($i)}}' /etc/grub2.cfg

# 显示文件/etc/inittab中奇数行
awk '{for (i=1;i<=NF;i+=2){printf "%s ",$i };print ""}' /etc/inittab

# 取出/etc/inittab文件中,每一行中,字符串的长度大于等于6的字串
awk '{for (i=1;i<=NF;i++){if (length($i)>=6) print $i}}' /etc/inittab


switch语句
相当于bash中case语句
指定一个表达式expression,如果此表达式被VALUE所匹配或者被正则RGEEXP所匹配,那么就执行statement1,...,如果都不满足,则执行default对应的statement
格式:

switch (expression) {case VALUE1 or /RGEEXP1/: statement1; case VALUE2 or /REGEXP2/: statement2; ...; default: stemertN}


循环控制
break, continue, next, exit
break和continue,用于条件判断循环语句, next用于awk自身循环的语句
break[n]: 当第n次循环时,结束整个循环,n=0表示本次循环
continue[n]: 满足条件后,直接进行第n次循环,本次循环不在进行,n=0也就是提前结束本次循环而直接进入下一轮轮换
next:如果满足条件则,提前结束对本行的处理,然后进入下一行的处理

示例

# 取出/etc/passwd文件中id号为奇数的用户名
awk -F: '{if ($3%2==0) next; print $1,$3}' /etc/passwd

# 取出/etc/passwd中奇数行的用户名
awk -F: '{if (NR%2==0) next; print NR,$1}' /etc/passwd

# 1到100内的偶数和
awk 'BEGIN{sum=0; for(i=1;i<=100;i++){if(i%2==0)continue;sum+=i} print sum}'

# 打印出uid为偶数的用户
awk -F: '{if($3%2!=0) next; print $1,$3}' /etc/passwd

数组

awk中数组的下标可以是数字和字母,数组的下标通常被称为关键字(key),可以用于计算总和、统计单词以及跟踪模板被匹配的次数等等。
数组中的元素在内存是连续排列的,有时我们我处理里面的数据并不是从头取到尾,有时从中间取,所以这里就需要一个下标,标记是在哪个位置,这个下标就就是索引,比如中药铺里面的药柜,要写明药名是不,这个名就是索引.而数组下标是从0开始的

关联数组

array[index-expression]

其中index-expression可以使用任意字串,如果某数组元素事先不存在,那么在引用时,awk会自动创建此元素并将其初始化为空串;
因此,要判断某数组是否存在某元素,必须使用“index in array”这种格式。

要遍历数组中的每一个元素,需要使用如下特殊结构:

for (var in array) {for body}

其var会遍历array的索引(即元素的下标)
示例

# 数组的定义与显示
awk 'BEGIN{weekdays["mon"]="Monday";weekdays["tue"]="Tuesday"; print weekdays["mon"]}'

awk 'BEGIN{weekdays["mon"]="Monday";weekdays["tue"]="Tuesday"; print weekdays["tue"]}'

# 遍历数组
awk 'BEGIN{weekdays["mod"]="Monday";weekdays["tue"]="Tuesday"; for(i in weekdays) {print weekdays[i]}}'

# 查看命令netstat -tan的结果,统计state每一种连接状态(LISTEN、ESTABLISHED等)的个数,$NF是最后一个元素
netstat -tan | awk '/^tcp\>/ {state[$NF]=state[$NF]+1} END{for(i in state){print i,state[i]}}'

netstat -tan | awk '/^tcp/ {state[$NF]++} END {for (i in state){print i,state[i]}}'

# 统计/var/log/httpd/access_log中,每个IP请求的资源的次数
awk '{ip[$1]++} END{for(i in ip) {print i,ip[i]}}' /var/log/httpd/access_log

# 统计/etc/fstab文件中每个文件系统类型出现的次数
awk '/^UUID/{fs[$3]++} EDN{for(i in fs) {print i,fs[i]}}' /etc/fstab

# 统计指定文件中每个单词出现的次数
awk '{for(i=1;i<=NF;i++){count[$i]++}}END{for(i in count) {print i,count[i]}}' /etc/fstab

删除数组元素:
delete array[index]
delete array

函数

函数分内置函数和自定义函数

内置函数
rand(): 返回0和1之间的一个随机数
srand(): 生成随机数种子
int(): 取整数
length([s]): 返回指定字符串的长度
sub(r,s,[t]): 以r表示的模式来查找t所表示的字符中的匹配的内容,并将第一次出现替换为s所表示的内容
gsub(r,s,[t]): 对t字符串进行搜索,r表示的模式匹配的内容,并全部替换为s所表示的内容
split(s,array,[r]): 元素切片,以r为分隔符,切割字符串s,并将切割后的结果保存至array所表示的数组中,该数组下标从1开始
substr(s,i,[n]): 从s所表示的字符串中取子串,取法:从i表示的位置开始,取n个字符
systime(): 取当前系统时间,结果形式为时间戳
system(): 调用shell中的命令,空格是awk中的字符串连接符,
如果system 中需要使用awk中的变量可以使用空格分隔,或者说除了awk的变量外其他一律用"" 引用 起来

示例:

awk 'BEGIN{print rand()}'

awk 'BEGIN{srand(); for (i=1;i<=10;i++)print int(rand()*100) }'

echo "2008:08:08 08:08:08" | awk 'sub(/:/,“-",$1)'

echo "2008:08:08 08:08:08" | awk ‘gsub(/:/,“-",$0)'

# 统计每个ip发起了多少条连接
netstat -tan | awk '/^tcp\>/ {split($5,ip,":"); count[ip[1]]++} END{for(i in count) {print i,count[i]}}'

awk BEGIN'{system("hostname") }'

awk 'BEGIN{score=100; system("echo your score is " score) }'

自定义函数

格式

function fname ( arg1,arg2 , ... ) {
    statements
    return expr
}

自定义函数中
fname为函数名
arg1...为函数的参数
statements是动作语言
return expr为由statements的结果从而决定最终函数所显示的内容
示例:

vim fun.awk
"""
function max(v1,v2) {
    v1>v2? var=v1:var=v2
    return var
}
BEGIN{a=3;b=2; print max(a,b)}
"""
awk –f fun.awk

awk的脚本

awk的脚本就是将awk程序写成脚本形式,来直接调用或直接执行
例如上面写自定义函数的样子也算是脚本

# 格式1:
BEGIN{} pattern{} END{}

# 格式2:
\#!/bin/awk -f
\#add 'x' right
BEGIN{} pattern{} END{}


格式1假设为f1.awk文件,格式2假设为f2.awk文件,那么用法是:
# 格式1用法:就是把处理阶段放到一个文件而已,真正展开后,也就是普通的awk语句

awk [-v var=value] f1.awk [file]

# 格式2用法:[-v var=value]是在BEGIN之前设置的变量值,[var1=value1]是在BEGIN过程之后进行的,也就是说直到首行输入完成后,这个变量才可用

f2.awk [-v var=value] [var1=value1] [file]


示例

# 示例1
cat f1.awk
"""
{if($3>=10)print $1,$3}
"""
awk -F: -f f1.awk /etc/passwd

# 示例2
cat f2.awk
"""
#!/bin/awk –f
# this is a awk script
{if($3>=1000)print $1,$3}
"""
chmod +x f2.awk
./f2.awk –F: /etc/passwd

# 示例3
cat f3.awk
"""
#!/bin/awk –f
{if($3 >=min && $3<=max)print $1,$3}
"""
chmod +x f3.awk
./f3.awk -F: min=100 max=200 /etc/passwd

练习题

# 取出最近登录的5个账号和登录ip
last -n 5 | awk '{print $1,$3}'

# 统计/etc/passwd用户数量
awk '{count++; print $0;} END{print "user count is :", count}' /etc/passwd

# 统计当前文件夹下的所有文件占用的字节数,注意,统计不包括文件夹的子目录
ls -l | awk 'BEGIN{size=0;} {size=size+$5;} END{print "[end]size is :", size}'

# 统计某个文件夹下的文件占用的字节数,过滤4096大小的文件(一般都是文件夹)
ls -l | awk 'BEGIN{size=0; print "[start]size is :", size} {if($5!=4096) {size=size+$5;}} END{print "[end]size is :", size/1024/1024,"M"}

Nginx日志分析

# 日志格式
'$remote_addr - $remote_user [$time_local] "$request" $status $body_bytes_sent "$http_referer" "$http_user_agent" "$http_x_forwarded_for"'

# 日志记录
27.189.231.39 - - [09/Apr/2016:17:21:23 +0800] "GET /Public/index/images/icon_pre.png HTTP/1.1" 200 44668 "http://www.test.com/Public/index/css/global.css" "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.157 Safari/537.36" "-"

需求1:统计日志中访问最多的10个IP
思路:对第一列进行去重,并输出出现的次数
# 方法1
awk '{a[$1]++}END{for(i in a)print a[i],i|"sort -k1 -nr|head -n10"}' access.log

# 方法2
awk '{print $1}' access.log |sort |uniq -c |sort -k1 -nr |head -n10
说明:a[$1]++ 创建数组a,以第一列作为下标,使用运算符++作为数组元素,元素初始值为0。处理一个IP时,下标是IP,元素加1,处理第二个IP时,下标是IP,元素加1,如果这个IP已经存在,则元素再加1,也就是这个IP出现了两次,元素结果是2,以此类推。因此可以实现去重,统计出现次数

需求2:统计日志中访问大于100次的IP
# 方法1
awk '{a[$1]++}END{for(i in a){if(a[i]>100)print i,a[i]}}' access.log
# 方法2
awk '{a[$1]++;if(a[$1]>100){b[$1]++}}END{for(i in b){print i,a[i]}}' access.log
说明:方法1是将结果保存a数组后,输出时判断符合要求的IP。方法2是将结果保存a数组时,并判断符合要求的IP放到b数组,最后打印b数组的IP。

需求3:统计2016年4月9日一天内访问最多的10个IP
思路:先过滤出这个时间段的日志,然后去重,统计出现次数
# 方法1
awk '$4>="[9/Apr/2016:00:00:01" && $4<="[9/Apr/2016:23:59:59" {a[$1]++}END{for(i in a)print a[i],i|"sort -k1 -nr|head -n10"}' access.log
# 方法2,前提开始时间与结束时间日志中必须存在
sed -n '/\[9\/Apr\/2016:00:00:01/,/\[9\/Apr\/2016:23:59:59/p' access.log |sort |uniq -c |sort -k1 -nr |head -n10

需求4:统计当前时间前一分钟的访问数
思路:先获取当前时间前一分钟对应日志格式的时间,再匹配统计
date=$(date -d '-1 minute' +%d/%b/%Y:%H:%M);awk -vdate=$date '$0~date{c++}END{print c}' access.log
date=$(date -d '-1 minute' +%d/%b/%Y:%H:%M);awk -vdate=$date '$4>="["date":00" && $4<="["date":59"{c++}END{print c}' access.log
grep -c $(date -d '-1 minute' +%d/%b/%Y:%H:%M) access.log
# 说明:date +%d/%b/%Y:%H:%M --> 09/Apr/2016:01:55

需求5:统计访问最多的前10个页面($request)
awk '{a[$7]++}END{for(i in a)print a[i],i|"sort -k1 -nr|head -n10"}' access.log

需求6:统计每个URL访问内容的总大小($body_bytes_sent)
awk '{a[$7]++;size[$7]+=$10}END{for(i in a)print a[i],size[i],i}' access.log

需求7:统计每个IP访问状态码数量($status)
awk '{a[$1" "$9]++}END{for(i in a)print i,a[i]}' access.log

需求8:统计访问状态码为404的IP及出现次数
awk '{if($9~/404/)a[$1" "$9]++}END{for(i in a)print i,a[i]}' access.log

 

转载于:https://www.cnblogs.com/xiaofeiweb/p/9009241.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值