awk用法小结

转载自:http://www.chinaunix.net/old_jh/24/691456.html


awk 用法:awk ' pattern {action} '  


变量名 含义 
ARGC 命令行变元个数 
ARGV 命令行变元数组 
FILENAME 当前输入文件名 
FNR 当前文件中的记录号 
FS 输入域分隔符,默认为一个空格 
RS 输入记录分隔符 
NF 当前记录里域个数 
NR 到目前为止记录数 
OFS 输出域分隔符 
ORS 输出记录分隔符 


1、awk '/101/'               file 显示文件file中包含101的匹配行。 
   awk '/101/,/105/'         file 
   awk '$1 == 5'             file 
   awk '$1 == "CT"'          file 注意必须带双引号 
   awk '$1 * $2 >100 '       file  
   awk '$2 >5 && $2<=15'     file 


2、awk '{print NR,NF,$1,$NF,}' file 显示文件file的当前记录号、域数和每一行的第一个和最后一个域。 
   awk '/101/ {print $1,$2 + 10}' file 显示文件file的匹配行的第一、二个域加10。 
   awk '/101/ {print $1$2}'  file 
   awk '/101/ {print $1 $2}' file 显示文件file的匹配行的第一、二个域,但显示时域中间没有分隔符。 


3、df | awk '$4>1000000 '         通过管道符获得输入,如:显示第4个域满足条件的行。 


4、awk -F "|" '{print $1}'   file 按照新的分隔符“|”进行操作。 
   awk  'BEGIN { FS="[: \t|]" } 
   {print $1,$2,$3}'     file 通过设置输入分隔符(FS="[: \t|]")修改输入分隔符。 


   Sep="|" 
   awk -F $Sep '{print $1}'  file 按照环境变量Sep的值做为分隔符。    
   awk -F '[ :\t|]' '{print $1}' file 按照正则表达式的值做为分隔符,这里代表空格、:、TAB、|同时做为分隔符。 
   awk -F '[][]'    '{print $1}' file 按照正则表达式的值做为分隔符,这里代表[、] 


5、awk -f awkfile     file 通过文件awkfile的内容依次进行控制。 
   cat awkfile 
/101/{print "\047 Hello! \047"} --遇到匹配行以后打印 ' Hello! '.\047代表单引号。 
{print $1,$2}                   --因为没有模式控制,打印每一行的前两个域。 


6、awk '$1 ~ /101/ {print $1}' file 显示文件中第一个域匹配101的行(记录)。
 
7、awk   'BEGIN { OFS="%"} 
   {print $1,$2}'           file 通过设置输出分隔符(OFS="%")修改输出格式。 


8、awk   'BEGIN { max=100 ;print "max=" max}             BEGIN 表示在处理任意行之前进行的操作。 
   {max=($1 >max ?$1:max); print $1,"Now max is "max}' file 取得文件第一个域的最大值。 
   (表达式1?表达式2:表达式3 相当于: 
   if (表达式1) 
       表达式2 
   else 
       表达式3
   awk '{print ($1>4 ? "high "$1: "low "$1)}' file  


9、awk '$1 * $2 >100 {print $1}' file 显示文件中第一个域匹配101的行(记录)。 


10、awk '{$1 == 'Chi' {$3 = 'China'; print}' file 找到匹配行后先将第3个域替换后再显示该行(记录)。 
    awk '{$7 %= 3; print $7}'  file 将第7域被3除,并将余数赋给第7域再打印。 


11、awk '/tom/ {wage=$2+$3; printf wage}' file 找到匹配行后为变量wage赋值并打印该变量。 


12、awk '/tom/ {count++;}  
         END {print "tom was found "count" times"}' file END表示在所有输入行处理完后进行处理。


13、awk 'gsub(/\$/,"");gsub(/,/,""); cost+=$4; 
         END {print "The total is $" cost>"filename"}'    file gsub函数用空串替换$和,再将结果输出到filename中。 
    1 2 3 $1,200.00 
    1 2 3 $2,300.00 
    1 2 3 $4,000.00 


    awk '{gsub(/\$/,"");gsub(/,/,""); 
    if ($4>1000&&$4<2000) c1+=$4; 
    else if ($4>2000&&$4<3000) c2+=$4; 
    else if ($4>3000&&$4<4000) c3+=$4; 
    else c4+=$4; } 
    END {printf  "c1=[%d];c2=[%d];c3=[%d];c4=[%d]\n",c1,c2,c3,c4}"' file 
    通过if和else if完成条件语句 


    awk '{gsub(/\$/,"");gsub(/,/,""); 
    if ($4>3000&&$4<4000) exit; 
    else c4+=$4; } 
    END {printf  "c1=[%d];c2=[%d];c3=[%d];c4=[%d]\n",c1,c2,c3,c4}"' file 
    通过exit在某条件时退出,但是仍执行END操作。 
    awk '{gsub(/\$/,"");gsub(/,/,""); 
    if ($4>3000) next; 
    else c4+=$4; } 
    END {printf  "c4=[%d]\n",c4}"' file 
    通过next在某条件时跳过该行,对下一行执行操作。 




14、awk '{ print FILENAME,$0 }' file1 file2 file3>fileall 把file1、file2、file3的文件内容全部写到fileall中,格式为打印文件并前置文件名。
 
15、awk ' $1!=previous { close(previous); previous=$1 }    
    {print substr($0,index($0," ") +1)>$1}' fileall 把合并后的文件重新分拆为3个文件。并与原文件一致。 


16、awk 'BEGIN {"date"|getline d; print d}'         通过管道把date的执行结果送给getline,并赋给变量d,然后打印。 
 
17、awk 'BEGIN {system("echo \"Input your name:\\c\""); getline d;print "\nYour name is",d,"\b!\n"}' 
    通过getline命令交互输入name,并显示出来。 
    awk 'BEGIN {FS=":"; while(getline< "/etc/passwd" >0) { if($1~"050[0-9]_") print $1}}' 
    打印/etc/passwd文件中用户名包含050x_的用户名。 


18、awk '{ i=1;while(i<NF) {print NF,$i;i++}}' file 通过while语句实现循环。 
    awk '{ for(i=1;i<NF;i++) {print NF,$i}}'   file 通过for语句实现循环。     
    type file|awk -F "/" ' 
    { for(i=1;i<NF;i++) 
    { if(i==NF-1) { printf "%s",$i } 
    else { printf "%s/",$i } }}'               显示一个文件的全路径。 
    用for和if显示日期 
    awk  'BEGIN { 
for(j=1;j<=12;j++) 
{ flag=0; 
  printf "\n%d月份\n",j; 
        for(i=1;i<=31;i++) 
        { 
        if (j==2&&i>28) flag=1; 
        if ((j==4||j==6||j==9||j==11)&&i>30) flag=1; 
        if (flag==0) {printf "%02d%02d ",j,i} 
        } 

}' 


19、在awk中调用系统变量必须用单引号,如果是双引号,则表示字符串 
Flag=abcd 
awk '{print '$Flag'}'   结果为abcd 
awk '{print  "$Flag"}'   结果为$Flag

****************************************************************************************

对于 这一条,有人给以改错:

调用系统变量必须用单引号这句话不对。在AWK的命令行方式中,引号为AWK提供命令串,单双引号均可,单引号引起的串shell不做处理,直接提供给AWK,双引号引起的串先经过shell替换后才交给AWK处理: 
   awk '{print '$Flag'}'   相当于把 '{print "abcd" }'交由AWK处理,awk "{print $Flag }"一样,shell已处理$Flag。 
   awk '{print  "$Flag"}'y相当于命令:awk "{print \$Flag }",单引号内的串shell不处理。

<think>嗯,用户之前问过关于DRC语句提取参数的问题,现在又问grep和awk用法。看来他们可能是在处理集成电路设计中的文本文件,比如日志、规则文件或者其他配置文件。需要确认他们的具体应用场景,但可能是在处理设计文件、日志分析或者数据提取。 首先,用户需要了解grep和awk的基本用法。grep主要用于文本搜索,而awk更擅长处理结构化文本数据,比如按列处理。他们可能需要在大型文件中快速查找特定模式,或者对数据进行格式化输出。 用户的真实需求可能不仅仅是知道这两个命令的语法,而是如何有效结合使用它们来解决实际问题。比如,在分析DRC错误日志时,用grep过滤出关键错误信息,再用awk提取具体的错误代码或位置。 要考虑到用户可能是工程师或技术人员,对命令行有一定基础,但需要更高效的用法示例。应该提供常见的使用场景,比如搜索特定模式、提取特定列、统计信息等,并给出实际例子,这样用户可以直接应用。 另外,用户可能希望了解如何将这两个工具结合使用,比如通过管道将grep的输出传递给awk进行进一步处理。这需要举出综合应用的例子,比如统计某个错误出现的次数,或者汇总数据。 还要注意避免过于复杂的选项,但也要覆盖常用参数,比如grep的-i(忽略大小写)、-v(反向匹配)、-r(递归搜索),以及awk的-F(指定分隔符)、内置变量如NR和NF等。这些参数能帮助用户更灵活地处理不同情况。 可能需要提醒用户注意正则表达式的使用,特别是在grep和awk中的语法差异,比如元字符是否需要转义,或者扩展正则表达式的支持。例如,grep默认使用基础正则,而加上-E选项可以使用扩展正则,而awk本身支持更完整的正则表达式。 最后,确保示例代码的格式正确,使用中文注释,并说明每个参数的作用。这样用户即使不熟悉所有选项,也能通过例子快速理解并应用。</think>以下是用中文介绍的`grep`和`awk`核心用法指南,包含典型场景示例: --- ### **一、grep 文本搜索工具** #### 基础语法 ```bash grep [选项] "搜索模式" 文件名 ``` #### 高频用法场景 1. **基础搜索** ```bash grep "error" log.txt # 查找包含"error"的行 grep -i "warning" system.log # -i 忽略大小写 ``` 2. **正则表达式搜索** ```bash grep "^2023" access.log # 查找以2023开头的行(日期过滤) grep "[0-9]{3}-[0-9]{4}" data.txt # 匹配电话号码格式 ``` 3. **反向排除** ```bash grep -v "success" result.csv # 显示不包含"success"的行 ``` 4. **递归搜索** ```bash grep -r "TODO" ./src/ # 递归搜索源代码目录中的注释标记 ``` 5. **上下文显示** ```bash grep -A3 "Exception" app.log # 显示匹配行及其后3行 grep -B2 "critical" sysmon.log # 显示匹配行及前2行 ``` --- ### **二、awk 文本处理工具** #### 基础语法 ```bash awk '模式 {操作}' 文件名 ``` #### 核心功能分解 1. **按列处理** ```bash awk '{print $1}' data.csv # 打印第1列(默认空格/TAB分隔) awk -F ',' '{print $2}' users.csv # -F指定逗号分隔符 ``` 2. **条件过滤** ```bash awk '$3 > 100 {print $0}' sales.txt # 第3列值大于100时打印整行 awk '/error/ {print NR ":" $0}' log # 带行号打印含error的行 ``` 3. **数学运算** ```bash awk '{sum += $4} END {print sum}' data.txt # 累加第4列总值 awk 'NR%2==0 {print}' input.txt # 打印偶数行 ``` 4. **内置变量** ```bash awk 'END {print NR}' file # 统计总行数 awk '{print FILENAME ":" FNR}' *.log # 显示文件名+行号 ``` --- ### **三、联合使用范例** #### 典型管道组合 ```bash # 统计nginx日志中404错误的出现次数 grep " 404 " access.log | awk '{print $7}' | sort | uniq -c # 提取CPU使用率超过80%的进程 ps aux | awk '$3 > 80 {print $2, $11}' | grep -v "PID" # 分析CSV文件中指定地区的销售额 grep "华东地区" sales.csv | awk -F ',' '{sum+=$5} END {print "总销售额:", sum}' ``` --- ### **四、对比总结表** | 工具 | 核心优势 | 典型场景 | |--------|-------------------------|----------------------------| | `grep` | 快速模式匹配/过滤 | 日志检索、关键词定位 | | `awk` | 结构化数据解析/列处理 | 数据统计、格式转换、条件过滤 | --- ### **五、进阶提示** 1. **正则增强**: - `grep -E` 启用扩展正则(等价`egrep`) - `awk` 支持完整正则表达式(无需转义符) 2. **性能优化**: ```bash grep -m100 "pattern" bigfile # 只显示前100个匹配结果 awk 'NR<=1000' huge.log # 处理前1000行 ``` 3. **脚本化处理**: ```bash # 保存为format.awk文件 BEGIN {FS=":"; OFS=" | "} {print $1, $3, $NF} ``` 执行:`awk -f format.awk /etc/passwd` 建议通过`man grep`和`info awk`查看完整文档,实际使用时根据具体需求组合这两个工具。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值