通过用户日志分析理解数据处理流程

本文详细介绍如何从web服务器获取用户操作日志,解析nginx配置,理解日志字段含义,并利用MapReduce或hive进行数据清洗,确保数据质量,为后续数据分析打下坚实基础。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

注:图片如果损坏,点击文章链接:https://www.toutiao.com/i6625473586012357123/

 

用户的操作日志

系统界面

通过用户日志分析理解数据处理流程

 

查看日志信息

进入到/usr/local/resin/log查看access_log

通过用户日志分析理解数据处理流程

 

我们把文件下载到本地查看

通过用户日志分析理解数据处理流程

 

每一行就是一条数据,是用户访问的一条记录,我们以一条数据为准

通过用户日志分析理解数据处理流程

 

看到这些数据我们应该知道:

1、应用系统的web服务器(数据来源)

2、每个字段的名称和含义(数据意义)

因为例子我们已经知道是nginx服务器,如果实际情况中一定要弄清楚数据字段的含义。

那么我们来查看nginx服务器的配置:

查看配置:/etc/nginx/nginx.conf

通过用户日志分析理解数据处理流程

 

其中的配置信息

通过用户日志分析理解数据处理流程

 

我们变化一下,可以看到有下面的字段

通过用户日志分析理解数据处理流程

 

结合之前的数据和字段内容我们得到:

通过用户日志分析理解数据处理流程

 

日志数据字段我们弄清楚之后,我们就要对日志文件进行处理了。

日志文件很多时候不能保证正好是如此的,即数据不符合我们的要求,例如:缺少某个字段、时间格式转换等。确保数据质量,数据质量差会出现很多问题,比如空指针异常,这就需要清洗原始数据成为我们需要的。比较常用的MapReduce、hive。比如我们的需要有以下的几种(里面的情况可以上网去查询下用途,这里提供个思路)

通过用户日志分析理解数据处理流程

 

那我们总结下基本的数据处理流程:

通过用户日志分析理解数据处理流程

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值