Linux日志分析

1、统计日志中访问最多的10个IP ?

第一步:按照IP进行将记录排序。

第二步:按照IP去重,并且显示重复次数

第三步:按照次数升序排列

第四步:显示前10行

[root@ chenc01 log]# cat /var/log/httpd/access_log|awk -F" " '{print $1}' |sort|uniq -c|sort -nrt " "|awk -F" " '{print $2}' |head -10

2、 统计日志中访问大于100次的IP ?

# 方法一:
[root@ chenc01 ~]# cat /var/log/httpd/access_log | cut -d ' ' -f 7 | sort |uniq -c | awk '{if ($1 > 100) print $0}'
# 方法二:
[root@ chenc01 ~]# awk '{a[$1]++;if(a[$1]>100){b[$1]++}}END{for(i in b){print i,a[i]}}' /var/log/httpd/access_log

3、 统计2020年1月9日一天内访问最多的10个IP ?

# 方法一:
[root@ chenc01 ~]# grep '09/Jan/2020' /var/log/httpd/access_log | awk '{ips[$(NF-1)]++}END{for (i in ips){print i,ips[i]}}' | sort -k2 -rn | head -n10
# 方法二:
[root@ chenc01 ~]# sed -n '/\[9\/Apr\/2016:00:00:01/,/\[9\/Apr\/2016:23:59:59/p' /var/log/httpd/access_log |sort |uniq -c |sort -k1 -nr |head -n10

4、 统计当前时间一分钟内的访问数 ?

# 方法一:
[root@ chenc01 ~]# grep -c $(date -d '-1 minute' +09/Jan/2020:11:26) /var/log/httpd/access_log
# 方法二:
[root@ chenc01 ~]# date=$(date -d '-1 minute' +09/Jan/2020:11:26);awk -vdate=$date '$0~date{c++}END{print c}' /var/log/httpd/access_log

5、 统计访问最多的前十个页面 ?

# 方法一:
[root@ chenc01 ~]# cat /var/log/httpd/access_log |cut -d ' ' -f 1 |sort |uniq -c | sort -nr | awk '{print $0 }' | head -n 10
# 方法二:
[root@ chenc01 ~]# cat /var/log/httpd/access_log |awk '{a[$7]++}END{for(i in a)print a[i],i|"sort -k1 -nr|head -n10"}'

6、 统计每个URL访问内容的总大小 ?

# 方法一:
[root@ chenc01 ~]# grep '09/Jan/2020' /var/log/httpd/access_log |awk '{urls[$7]++;size[$7]+=$10}END{for(i in urls){print urls[i],size[i],i}}' |sort -k1 -nr
# 方法二:
[root@ chenc01 ~]# awk '{a[$7]++;size[$7]+=$10}END{for(i in a)print a[i],size[i],i}' /var/log/httpd/access_log

7、 统计每个IP访问的状态数量 ?

[root@ chenc01 ~]# awk '{a[$1" "$9]++}END{for(i in a)print i,a[i]}' /var/log/httpd/access_log

8、 统计访问状态码为404的IP及出现次数

# 方法一:
[root@ chenc01 ~]# grep '09/Jan/2020' /var/log/httpd/access_log |awk '{if($9="404"){ips[$1]++}}END{for(i in ips){print i,ips[i]}}' |sort -k2 -nr
# 方法一:
[root@ chenc01 ~]# awk '{if($9~/404/)a[$1" "$9]++}END{for(i in a)print i,a[i]}' /var/log/httpd/access_log
### 关于Linux日志分析的方法 Linux系统的日志文件通常存储在`/var/log/`目录下,这些日志包含了系统运行的各种状态信息和服务活动记录。通过对日志的深入分析,可以有效识别并解决系统中的各种问题[^1]。 #### 常见的日志类型及其位置 以下是几种常见的Linux日志类型及它们的位置: - **系统日志**:位于 `/var/log/syslog` 或 `/var/log/messages` 文件中(取决于发行版),主要记录系统级别的消息。 - **应用程序日志**:由具体的应用程序生成,例如 Apache 的访问日志 (`/var/log/apache2/access.log`) 和错误日志 (`/var/log/apache2/error.log`)。 - **安全日志**:如 `auth.log` 或 `secure` 文件,用于跟踪登录尝试和其他授权操作。 - **启动日志**:记录系统引导过程中的事件,一般存放在 `/var/log/boot.log` 中。 为了高效处理和解析这些日志数据,可以选择合适的工具来完成自动化分析工作。 --- ### 推荐使用的Linux日志分析工具 #### 1. Logwatch Logwatch 是 CentOS 系统自带的一款强大的日志分析工具,能够定期发送报告给管理员,帮助其了解服务器的整体健康状况。它可以按需定制输出的内容范围,并支持多种格式化选项以便更直观地展示结果[^2]。 ```bash sudo apt-get install logwatch # Debian/Ubuntu 安装命令 sudo yum install logwatch # RHEL/CentOS/Fedora 安装命令 ``` 执行以下脚本来查看最近一天内的汇总情况: ```bash logwatch --range 'yesterday' --output stdout --detail high ``` #### 2. LOGalyze 作为一款开源的企业级解决方案,LOGalyze 提供了图形化的界面让用户更加方便地管理和查询历史记录。该软件不仅限于读取本地机器上的文档,还允许连接远程数据库或者SNMP协议获取外部资源的数据流。此外,内置报警机制使得异常行为能被及时发现与响应[^3]。 安装步骤如下所示(适用于 Ubuntu): ```bash wget https://www.logalyze.com/download.php -O logalyze.deb sudo dpkg -i logalyze.deb sudo apt-get update && sudo apt-get upgrade -f ``` #### 3. ELK Stack (Elasticsearch, Logstash, Kibana) ELK stack 构建了一个完整的端到端平台来进行大规模分布式环境下的集中式日志收集、索引建立以及可视化呈现。其中 Elasticsearch 负责储存结构化后的 JSON 对象;Logstash 则承担传输管道角色负责从不同源头抽取原始资料再经过过滤器加工后送入目标仓库;最后借助 Kibana Web 应用实现交互式的探索体验。 部署流程较为复杂,这里仅给出基本概念性的指导: ```bash curl -fsSL https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add - echo "deb https://artifacts.elastic.co/packages/7.x/apt stable main" | sudo tee -a /etc/apt/sources.list.d/elastic-7.x.list sudo apt-get update sudo apt-get install elasticsearch kibana logstash filebeat ``` 更多配置细节可参照官方文档进一步学习实践。 --- ### 小结 无论是简单的文本扫描还是复杂的关联规则挖掘,都有相应的技术手段满足需求。对于初学者而言建议先掌握基础命令行技巧配合 grep/sed/awk 进行初步筛选分类后再考虑引入第三方插件提升效率效果最佳。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值