awk用法小结

1. next多行合并

(cat << EOF
person1:
a:1
b:2
c:3
person2:
a:12
b:23
c:11
EOF

 | awk -F":"  '/^person/{tmp=$1;next;}{print tmp FS $2}'
输入出
person1: 1 2 3
persion2:12 23 11
注意:cat在多行输出时,管道需要用括号括起来.

2).读取多个文件
2个文件时,

awk读取的文件只有两个的时候,比较常用的有两种方法:(1)一种是
awk 'NR==FNR{...}NR>FNR{...}'  file1 file2

awk 'NR==FNR{...}NR!=FNR{...}' file1 file2
另一种是awk 'NR==FNR{...;next}{...}' file1 file2
多个文件时,
1). ARGIND        #
当前被处理参数标志
awk 'ARGIND==1{...}ARGIND==2{...}ARGIND==3{...}... ' file1 file2 file3 ...
2). ARGV            #
命令行参数数组
awk 'FILENAME==ARGV[1]{...}FILENAME==ARGV[2]{...}FILENAME==ARGV[3]{...}...'file1 file2 file3 ...
3).
把文件名直接加入判断
awk'FILENAME=="file1"{...}FILENAME=="file2"{...}FILENAME=="file3"{...}...'file1 file2 file3 ...
3.sub
gsub
gsub
r,s,t)  
sub(r,s,t)
都返回被替换的次数
t
没有指定,默认是整个记录.区别是:gsub全部替换,sub只替换一次
echo "aaaaa" | awk 'sub("a","b")'
baaaa
echo "aaaaa" | awk 'gsub("a","b")'
bbbbb
4.awk
只有一条命令时,可以不加{}
5.getline systerm colse
用法

system(Command )

执行 Command 参数指定的命令,并返回退出状态。等同于system 子例程。

 awk 'BEGIN{while("cat/etc/passwd"|getline){print $0;};close("/etc/passwd");}'

awk 'BEGIN{while(getline < "/etc/passwd"){print$0;};close("/etc/passwd");}'

awk'BEGIN{b=system("ls -al");print b;}' 
b
0,执行ls 输出结果

6.时间函数

mktime( YYYY MM DD HH MM SS[ DST])

生成时间格式

strftime([format [, timestamp]])

格式化时间输出,将时间戳转为时间字符串 
具体格式,见下表.

systime()

echo "abc 1407037650" | awk'$2=strftime("%y-%m-%d",$2)'

7.数组
多维数组,array[index1,index2,……]SUBSEP是数组下标分割符,默认为“\034”。可以事先设定SUBSEP,也可以直接在SUBSEP的位置输入你要用的分隔符,如:

awk'BEGIN{SUBSEP=":";array["a","b"]=1;for(i inarray) print i}'

a:b

awk'BEGIN{array["a"":""b"]=1;for(i in array) printi}'

a:b

但,有些特殊情况需要避免,如:

awk'BEGIN{

SUBSEP=":"

array["a","b:c"]=1               # 下标为“a:b:c

array["a:b","c"]=2               #下标同样是“a:b:c

for (iin array) print i,array[i]}'

a:b:c2                                 #所以数组元素只有一个。
8.数据排序
1)
内置函数
asort
使用说明 
srcarrlen=asort[srcarr,dscarr] 默认返回值是:原数组长度,传入参数
dscarr则将排序后数组赋值给dscarr. 
asort只对值进行了排序,因此丢掉原先键值。

asorti对键值进行排序(字符串类型),将生成新的数组放入:tA中。

2)发给外部程序
awk 'BEGIN{a[3]=3;a[4]=4;a[1]=1

for(i in a){

print i,a[i] }

}' | sort -k2
9.
定义多个分隔符
awk
定义多个分隔符

awk命令行选项 -F"[:|]"  告诉awk | : 都是字段分隔符

10.数据乱序

awk for(k in arr)输出乱序的原因是因为:内部用hash实现,没有规律,
awk 'BEGIN{a[3]=3;a[4]=4;a[1]=1

for(i in a){

print i,a[i] }

}'

4 4

1 1

3 3
可以将a[0]=3 a[1]=4 a[2]=1的形式保存在数组中
.

<think>嗯,用户之前问过关于DRC语句提取参数的问题,现在又问grep和awk用法。看来他们可能是在处理集成电路设计中的文本文件,比如日志、规则文件或者其他配置文件。需要确认他们的具体应用场景,但可能是在处理设计文件、日志分析或者数据提取。 首先,用户需要了解grep和awk的基本用法。grep主要用于文本搜索,而awk更擅长处理结构化文本数据,比如按列处理。他们可能需要在大型文件中快速查找特定模式,或者对数据进行格式化输出。 用户的真实需求可能不仅仅是知道这两个命令的语法,而是如何有效结合使用它们来解决实际问题。比如,在分析DRC错误日志时,用grep过滤出关键错误信息,再用awk提取具体的错误代码或位置。 要考虑到用户可能是工程师或技术人员,对命令行有一定基础,但需要更高效的用法示例。应该提供常见的使用场景,比如搜索特定模式、提取特定列、统计信息等,并给出实际例子,这样用户可以直接应用。 另外,用户可能希望了解如何将这两个工具结合使用,比如通过管道将grep的输出传递给awk进行进一步处理。这需要举出综合应用的例子,比如统计某个错误出现的次数,或者汇总数据。 还要注意避免过于复杂的选项,但也要覆盖常用参数,比如grep的-i(忽略大小写)、-v(反向匹配)、-r(递归搜索),以及awk-F(指定分隔符)、内置变量如NR和NF等。这些参数能帮助用户更灵活地处理不同情况。 可能需要提醒用户注意正则表达式的使用,特别是在grep和awk中的语法差异,比如元字符是否需要转义,或者扩展正则表达式的支持。例如,grep默认使用基础正则,而加上-E选项可以使用扩展正则,而awk本身支持更完整的正则表达式。 最后,确保示例代码的格式正确,使用中文注释,并说明每个参数的作用。这样用户即使不熟悉所有选项,也能通过例子快速理解并应用。</think>以下是用中文介绍的`grep`和`awk`核心用法指南,包含典型场景示例: --- ### **一、grep 文本搜索工具** #### 基础语法 ```bash grep [选项] "搜索模式" 文件名 ``` #### 高频用法场景 1. **基础搜索** ```bash grep "error" log.txt # 查找包含"error"的行 grep -i "warning" system.log # -i 忽略大小写 ``` 2. **正则表达式搜索** ```bash grep "^2023" access.log # 查找以2023开头的行(日期过滤) grep "[0-9]{3}-[0-9]{4}" data.txt # 匹配电话号码格式 ``` 3. **反向排除** ```bash grep -v "success" result.csv # 显示不包含"success"的行 ``` 4. **递归搜索** ```bash grep -r "TODO" ./src/ # 递归搜索源代码目录中的注释标记 ``` 5. **上下文显示** ```bash grep -A3 "Exception" app.log # 显示匹配行及其后3行 grep -B2 "critical" sysmon.log # 显示匹配行及前2行 ``` --- ### **二、awk 文本处理工具** #### 基础语法 ```bash awk '模式 {操作}' 文件名 ``` #### 核心功能分解 1. **按列处理** ```bash awk '{print $1}' data.csv # 打印第1列(默认空格/TAB分隔) awk -F ',' '{print $2}' users.csv # -F指定逗号分隔符 ``` 2. **条件过滤** ```bash awk '$3 > 100 {print $0}' sales.txt # 第3列值大于100时打印整行 awk '/error/ {print NR ":" $0}' log # 带行号打印含error的行 ``` 3. **数学运算** ```bash awk '{sum += $4} END {print sum}' data.txt # 累加第4列总值 awk 'NR%2==0 {print}' input.txt # 打印偶数行 ``` 4. **内置变量** ```bash awk 'END {print NR}' file # 统计总行数 awk '{print FILENAME ":" FNR}' *.log # 显示文件名+行号 ``` --- ### **三、联合使用范例** #### 典型管道组合 ```bash # 统计nginx日志中404错误的出现次数 grep " 404 " access.log | awk '{print $7}' | sort | uniq -c # 提取CPU使用率超过80%的进程 ps aux | awk '$3 > 80 {print $2, $11}' | grep -v "PID" # 分析CSV文件中指定地区的销售额 grep "华东地区" sales.csv | awk -F ',' '{sum+=$5} END {print "总销售额:", sum}' ``` --- ### **四、对比总结表** | 工具 | 核心优势 | 典型场景 | |--------|-------------------------|----------------------------| | `grep` | 快速模式匹配/过滤 | 日志检索、关键词定位 | | `awk` | 结构化数据解析/列处理 | 数据统计、格式转换、条件过滤 | --- ### **五、进阶提示** 1. **正则增强**: - `grep -E` 启用扩展正则(等价`egrep`) - `awk` 支持完整正则表达式(无需转义符) 2. **性能优化**: ```bash grep -m100 "pattern" bigfile # 只显示前100个匹配结果 awk 'NR<=1000' huge.log # 处理前1000行 ``` 3. **脚本化处理**: ```bash # 保存为format.awk文件 BEGIN {FS=":"; OFS=" | "} {print $1, $3, $NF} ``` 执行:`awk -f format.awk /etc/passwd` 建议通过`man grep`和`info awk`查看完整文档,实际使用时根据具体需求组合这两个工具。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

anssummer

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值