Linux命名cat grep查看日志

这篇博客介绍了如何在Linux环境下利用cat、more、less、tail和head等命令高效地查看和分析大型日志文件,这些工具能够帮助用户便捷地浏览和定位日志中的关键信息。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

以前公司看日志是直接down下来,一点点看,现在的日志文件,大的很,几个g,根本不能这样,

不过日志吗,都是有规律的,使用cat等查看文本的数据,

cat、more、less、tail、head.

说一下用 这个cat指令,
cat data_receiver.log.2016-03-04 | grep "\"lineName\":\"212路\"" | grep "\"direction\":\"0\"" | grep 16:02

单独cat   data_receiver.log.2016-03-04,从头到尾把文件的所有内存都列举出来,然后使用grep管道一步步过滤,

首先获得包含 "lineName":"21路",引号复用,需要\ 转义,然后获得 "direction":"0" ,

不过最后 | grep 时间,数据的格式,但是时间在他之前,不过这样的命名也对:
cat data_receiver.log.2016-03-04 | grep 20:46 | grep "\"lineName\":\"21路\"" | grep "\"direction\":\"0\"" 。这就是grep这个管道命令的厉害,

应该的定位到一行,然后这行里面进行筛选,就是这样,其实就是这么简单,没有什么难的。

grep对数据是按行进行过滤,所以过滤不用分先后,先过滤哪个就行。强大的命令啊。

[test@TB2 logs]$cat data_receiver.log.2016-03-04 | grep "\"lineName\":\"21路\"" | grep "\"direction\":\"0\"" | grep 20:46
2016-03-04 20:46:16 [INFO] data_receiver_log - REQ_COST=246 TRANS_COST=76 CRAWL RET: {"responseTime":1457095576281,"status":"00","requestTime":1457095576035,"siteId":"xz_zsgjapp","cityId":"057","lineName":"21路","lineNo":"21路","direction":"0","stopOrder":-1,"stopName":"","type":1,"priority":100,"crawledData":"[]","persist":1,"ignoreCache":0}
2016-03-04 20:46:45 [INFO] data_receiver_log - REQ_COST=105 TRANS_COST=85 CRAWL RET: {"responseTime":1457095605822,"status":"00","requestTime":1457095605717,"siteId":"xz_zsgjapp","cityId":"057","lineName":"21路","lineNo":"21路","direction":"0","stopOrder":-1,"stopName":"","type":1,"priority":100,"crawledData":"[]","persist":1,"ignoreCache":0}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值