1. 日志分析必要性
互联网的发展,将产生大量的Web日志或者移动端日志,日志中包含非常丰富的用户各类信息。通过解析分析挖掘此类信息,将产生相应的数据价值。
- 一般中型网站(10w pv以上),每天将产生1G以上的Web日志。
- 大型网站或超大型网址,可能每小时会产生500GB至1TB的数据。
Web日志主要是Web服务器产生,现在公司主流的服务器是Nginx,Apache,Tomcat等。
1.1 日志格式
目前常见的Web日志格式主要两类:
1. Apache 的NCSA日志格式
2. ISS 的W3C日志。
1.2 传统单机日志数据分析
1. linux shell 单机日志分析
2. python 单机日志分析
1.3大规模分布式日志分析
当日志以每日10GB,100GB增长时,单机则早已不能满足,此时需要大数据分析和并行计算来解决。
spark未出现之前:
- 海量的数据存储和日志分析基于Hadoop和Hive等数据分析系统的。
spark出现后:
- 全栈数据分析更加容易。sparkSQL处理离线的数;sparkStreaming处理实时数据。
2. 日志分析指标
由于数据的重要性越来越高,数据化运营对互联网公司的利益影响也非常明显。