awk用法小结

本文详细介绍AWK命令的各种用法及应用场景,包括基本语法、变量使用、条件判断、循环控制等高级特性。通过丰富的实例帮助读者深入理解AWK的强大功能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

awk 用法:awk ' pattern {action} ' 
 
变量名 含义
ARGC 命令行变元个数
ARGV 命令行变元数组
FILENAME 当前输入文件名
FNR 当前文件中的记录号
FS 输入域分隔符,默认为一个空格
RS 输入记录分隔符
NF 当前记录里域个数
NR 到目前为止记录数
OFS 输出域分隔符
ORS 输出记录分隔符
 
1、awk '/101/'               file 显示文件file中包含101的匹配行。
   awk '/101/,/105/'         file
   awk '$1 == 5'             file
   awk '$1 == "CT"'          file 注意必须带双引号
   awk '$1 * $2 >100 '       file 
   awk '$2 >5 && $2<=15'     file
2、awk '{print NR,NF,$1,$NF,}' file 显示文件file的当前记录号、域数和每一行的第一个和最后一个域。
   awk '/101/ {print $1,$2 + 10}' file 显示文件file的匹配行的第一、二个域加10。
   awk '/101/ {print $1$2}'  file
   awk '/101/ {print $1 $2}' file 显示文件file的匹配行的第一、二个域,但显示时域中间没有分隔符。
3、df | awk '$4>1000000 '         通过管道符获得输入,如:显示第4个域满足条件的行。
4、awk -F "|" '{print $1}'   file 按照新的分隔符“|”进行操作。
   awk  'BEGIN { FS="[: \t|]" }
   {print $1,$2,$3}'       file 通过设置输入分隔符(FS="[: \t|]")修改输入分隔符。
 
   Sep="|"
   awk -F $Sep '{print $1}'  file 按照环境变量Sep的值做为分隔符。   
   awk -F '[ :\t|]' '{print $1}' file 按照正则表达式的值做为分隔符,这里代表空格、:、TAB、|同时做为分隔符。
   awk -F '[][]'    '{print $1}' file 按照正则表达式的值做为分隔符,这里代表[、]
5、awk -f awkfile       file 通过文件awkfile的内容依次进行控制。
   cat awkfile
/101/{print "\047 Hello! \047"} --遇到匹配行以后打印 ' Hello! '.\047代表单引号。
{print $1,$2}                   --因为没有模式控制,打印每一行的前两个域。
6、awk '$1 ~ /101/ {print $1}' file 显示文件中第一个域匹配101的行(记录)。
7、awk   'BEGIN { OFS="%"}
   {print $1,$2}'           file 通过设置输出分隔符(OFS="%")修改输出格式。
8、awk   'BEGIN { max=100 ;print "max=" max}             BEGIN 表示在处理任意行之前进行的操作。
   {max=($1 >max ?$1:max); print $1,"Now max is "max}' file 取得文件第一个域的最大值。
   (表达式1?表达式2:表达式3 相当于:
   if (表达式1)
       表达式2
   else
       表达式3
   awk '{print ($1>4 ? "high "$1: "low "$1)}' file 
9、awk '$1 * $2 >100 {print $1}' file 显示文件中第一个域匹配101的行(记录)。
10、awk '{$1 == 'Chi' {$3 = 'China'; print}' file 找到匹配行后先将第3个域替换后再显示该行(记录)。
    awk '{$7 %= 3; print $7}'  file 将第7域被3除,并将余数赋给第7域再打印。
11、awk '/tom/ {wage=$2+$3; printf wage}' file 找到匹配行后为变量wage赋值并打印该变量。
12、awk '/tom/ {count++;} 
         END {print "tom was found "count" times"}' file END表示在所有输入行处理完后进行处理。
13、awk 'gsub(/\$/,"");gsub(/,/,""); cost+=$4;
         END {print "The total is $" cost>"filename"}'    file gsub函数用空串替换$和,再将结果输出到filename中。
    1 2 3 $1,200.00
    1 2 3 $2,300.00
    1 2 3 $4,000.00
 
    awk '{gsub(/\$/,"");gsub(/,/,"");
    if ($4>1000&&$4<2000) c1+=$4;
    else if ($4>2000&&$4<3000) c2+=$4;
    else if ($4>3000&&$4<4000) c3+=$4;
    else c4+=$4; }
    END {printf  "c1=[%d];c2=[%d];c3=[%d];c4=[%d]\n",c1,c2,c3,c4}"' file
    通过if和else if完成条件语句
 
    awk '{gsub(/\$/,"");gsub(/,/,"");
    if ($4>3000&&$4<4000) exit;
    else c4+=$4; }
    END {printf  "c1=[%d];c2=[%d];c3=[%d];c4=[%d]\n",c1,c2,c3,c4}"' file
    通过exit在某条件时退出,但是仍执行END操作。
    awk '{gsub(/\$/,"");gsub(/,/,"");
    if ($4>3000) next;
    else c4+=$4; }
    END {printf  "c4=[%d]\n",c4}"' file
    通过next在某条件时跳过该行,对下一行执行操作。
 

14、awk '{ print FILENAME,$0 }' file1 file2 file3>fileall 把file1、file2、file3的文件内容全部写到fileall中,格式为
    打印文件并前置文件名。
15、awk ' $1!=previous { close(previous); previous=$1 }   
    {print substr($0,index($0," ") +1)>$1}' fileall 把合并后的文件重新分拆为3个文件。并与原文件一致。
16、awk 'BEGIN {"date"|getline d; print d}'         通过管道把date的执行结果送给getline,并赋给变量d,然后打印。 
17、awk 'BEGIN {system("echo \"Input your name:\\c\""); getline d;print "\nYour name is",d,"\b!\n"}'
    通过getline命令交互输入name,并显示出来。
    awk 'BEGIN {FS=":"; while(getline< "/etc/passwd" >0) { if($1~"050[0-9]_") print $1}}'
    打印/etc/passwd文件中用户名包含050x_的用户名。
 
18、awk '{ i=1;while(i<NF) {print NF,$i;i++}}' file 通过while语句实现循环。
    awk '{ for(i=1;i<NF;i++) {print NF,$i}}'   file 通过for语句实现循环。    
    type file|awk -F "/" '
    { for(i=1;i<NF;i++)
    { if(i==NF-1) { printf "%s",$i }
    else { printf "%s/",$i } }}'               显示一个文件的全路径。
    用for和if显示日期
    awk  'BEGIN {
for(j=1;j<=12;j++)
{ flag=0;
  printf "\n%d月份\n",j;
        for(i=1;i<=31;i++)
        {
        if (j==2&&i>28) flag=1;
        if ((j==4||j==6||j==9||j==11)&&i>30) flag=1;
        if (flag==0) {printf "%02d%02d ",j,i}
        }
}
}'
19、在awk中调用系统变量必须用单引号,如果是双引号,则表示字符串
Flag=abcd
awk '{print '$Flag'}'   结果为abcd
awk '{print  "$Flag"}'   结果为$Flag
<think>嗯,用户之前问过关于DRC语句提取参数的问题,现在又问grep和awk用法。看来他们可能是在处理集成电路设计中的文本文件,比如日志、规则文件或者其他配置文件。需要确认他们的具体应用场景,但可能是在处理设计文件、日志分析或者数据提取。 首先,用户需要了解grep和awk的基本用法。grep主要用于文本搜索,而awk更擅长处理结构化文本数据,比如按列处理。他们可能需要在大型文件中快速查找特定模式,或者对数据进行格式化输出。 用户的真实需求可能不仅仅是知道这两个命令的语法,而是如何有效结合使用它们来解决实际问题。比如,在分析DRC错误日志时,用grep过滤出关键错误信息,再用awk提取具体的错误代码或位置。 要考虑到用户可能是工程师或技术人员,对命令行有一定基础,但需要更高效的用法示例。应该提供常见的使用场景,比如搜索特定模式、提取特定列、统计信息等,并给出实际例子,这样用户可以直接应用。 另外,用户可能希望了解如何将这两个工具结合使用,比如通过管道将grep的输出传递给awk进行进一步处理。这需要举出综合应用的例子,比如统计某个错误出现的次数,或者汇总数据。 还要注意避免过于复杂的选项,但也要覆盖常用参数,比如grep的-i(忽略大小写)、-v(反向匹配)、-r(递归搜索),以及awk的-F(指定分隔符)、内置变量如NR和NF等。这些参数能帮助用户更灵活地处理不同情况。 可能需要提醒用户注意正则表达式的使用,特别是在grep和awk中的语法差异,比如元字符是否需要转义,或者扩展正则表达式的支持。例如,grep默认使用基础正则,而加上-E选项可以使用扩展正则,而awk本身支持更完整的正则表达式。 最后,确保示例代码的格式正确,使用中文注释,并说明每个参数的作用。这样用户即使不熟悉所有选项,也能通过例子快速理解并应用。</think>以下是用中文介绍的`grep`和`awk`核心用法指南,包含典型场景示例: --- ### **一、grep 文本搜索工具** #### 基础语法 ```bash grep [选项] "搜索模式" 文件名 ``` #### 高频用法场景 1. **基础搜索** ```bash grep "error" log.txt # 查找包含"error"的行 grep -i "warning" system.log # -i 忽略大小写 ``` 2. **正则表达式搜索** ```bash grep "^2023" access.log # 查找以2023开头的行(日期过滤) grep "[0-9]{3}-[0-9]{4}" data.txt # 匹配电话号码格式 ``` 3. **反向排除** ```bash grep -v "success" result.csv # 显示不包含"success"的行 ``` 4. **递归搜索** ```bash grep -r "TODO" ./src/ # 递归搜索源代码目录中的注释标记 ``` 5. **上下文显示** ```bash grep -A3 "Exception" app.log # 显示匹配行及其后3行 grep -B2 "critical" sysmon.log # 显示匹配行及前2行 ``` --- ### **二、awk 文本处理工具** #### 基础语法 ```bash awk '模式 {操作}' 文件名 ``` #### 核心功能分解 1. **按列处理** ```bash awk '{print $1}' data.csv # 打印第1列(默认空格/TAB分隔) awk -F ',' '{print $2}' users.csv # -F指定逗号分隔符 ``` 2. **条件过滤** ```bash awk '$3 > 100 {print $0}' sales.txt # 第3列值大于100时打印整行 awk '/error/ {print NR ":" $0}' log # 带行号打印含error的行 ``` 3. **数学运算** ```bash awk '{sum += $4} END {print sum}' data.txt # 累加第4列总值 awk 'NR%2==0 {print}' input.txt # 打印偶数行 ``` 4. **内置变量** ```bash awk 'END {print NR}' file # 统计总行数 awk '{print FILENAME ":" FNR}' *.log # 显示文件名+行号 ``` --- ### **三、联合使用范例** #### 典型管道组合 ```bash # 统计nginx日志中404错误的出现次数 grep " 404 " access.log | awk '{print $7}' | sort | uniq -c # 提取CPU使用率超过80%的进程 ps aux | awk '$3 > 80 {print $2, $11}' | grep -v "PID" # 分析CSV文件中指定地区的销售额 grep "华东地区" sales.csv | awk -F ',' '{sum+=$5} END {print "总销售额:", sum}' ``` --- ### **四、对比总结表** | 工具 | 核心优势 | 典型场景 | |--------|-------------------------|----------------------------| | `grep` | 快速模式匹配/过滤 | 日志检索、关键词定位 | | `awk` | 结构化数据解析/列处理 | 数据统计、格式转换、条件过滤 | --- ### **五、进阶提示** 1. **正则增强**: - `grep -E` 启用扩展正则(等价`egrep`) - `awk` 支持完整正则表达式(无需转义符) 2. **性能优化**: ```bash grep -m100 "pattern" bigfile # 只显示前100个匹配结果 awk 'NR<=1000' huge.log # 处理前1000行 ``` 3. **脚本化处理**: ```bash # 保存为format.awk文件 BEGIN {FS=":"; OFS=" | "} {print $1, $3, $NF} ``` 执行:`awk -f format.awk /etc/passwd` 建议通过`man grep`和`info awk`查看完整文档,实际使用时根据具体需求组合这两个工具。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值