hadoop离线分析(简单版)-实现流程+数据分析

本文介绍了一个基于Flume、Hadoop、Hive和Jenkins的离线数据分析流程,涵盖了数据采集、清洗、存储、分析和结果导出的完整环节。通过Flume从FTP服务器收集日志,使用Hadoop进行数据清洗,借助Hive构建数据仓库并分析,最终利用Jenkins自动化执行流程。

目录

 

整体流程概述

稳妥的采集数据方法

FTP服务器上的Flume配置文件如下

其它常见问题

应用层代码部署到分布式mycluster1

数据采集(Flume采集nginx日志)

Visits数据分析

大数据离线自动执行流程--基于jenkins


整体流程概述

首先声明,这个架构模型只能是离线分析技术的一个简单的入门级架构。

整个离线分析的总体架构就是使用Flume从FTP服务器上采集日志文件,并存储在Hadoop HDFS文件系统上,再接着用Hadoop的mapreduce清洗日志文件,最后使用HIVE构建数据仓库做离线分析。任务的调度使用Shell脚本完成,当然大家也可以尝试一些自动化的任务调度工具,比如说AZKABAN或者OOZIE等。本次任务调度工具使用OOZIE。分析所使用的点击流日志文件主要来自Nginx的access.log日志文件,需要注意的是在这里并不是用Flume直接去生产环境上拉取nginx的日志文件,而是多设置了一层FTP服务器来缓存所有的日志文件,然后再用Flume监听FTP服务器上指定的目录并拉取目录里的日志文件到HDFS服务器上(具体原因下面分析)。从生产环境推送日志文件到FTP服务器的操作可以通过Shell脚本配合Crontab定时器来实现。一般在WEB系统中,用户对站点的页面的访问浏览,点击行为等一系列的数据都会记录在日志中,每一条日志记录就代表着上图中的一个数据点;而点击流数据关注的就是所有这些点连起来后的一个完整的网站浏览行为记录,可以认为是一个用户对网站的浏览session。比如说用户从哪一个外站进入到当前的网站,用户接下来浏览了当前网站的哪些页面,点击了哪些图片链接按钮等一系列的行为记录,这一个整体的信息就称为是该用户的点击流记录。本次设计的离线分析系统就是收集WEB系统中产生的这些数据日志,并清洗日志内容存储分布式的HDFS文件存储系统上,接着使用离线分析工具HIVE去统计所有用户的点击流信息。

稳妥的采集数据方法

网站会通过前端JS代码或服务器端的后台代码收集用户浏览数据并存储在网站服务器中。一般运维人员会在离线分析系统和真实生产环境之间部署FTP服务器,并将生产环境上的用户数据每天定时发送到FTP服务器上,离线分析系统就会从FTP服务上采集数据而不会影响到生产环境。    
采集数据的方式有多种,一种是通过自己编写shell脚本或Java编程采集数据,但是工作量大,不方便维护,另一种就是直接使用第三方框架去进行日志的采集,一般第三方框架的健壮性,容错性和易用性都做得很好也易于维护。本文采用第三方框架Flume进行日志采集,Flume是一个分布式的高效的日志采集系统,它能把分布在不同服务器上的海量日志文件数据统一收集到一个集中的存储资源中,Flume是Apache的一个顶级项目,与Hadoop也有很好的兼容性。现在的flume-ng也是一个高可用的框架。Flume的agent是运行在JVM上的,所以各个服务器上的JVM环境必不可少。每一个Flume agent部署在一台服务器上,Flume会收集web server 产生的日志数据,并封装成一个个的事件发送给Flume Agent的Source,Flume Agent Source会消费这些收集来的数据事件并放在Flume Agent Channel,Flume Agent Sink会从Channel中收集这些采集过来的数据,要么存储在本地的文件系统中要么作为一个消费资源分发给下一个装在分布式系统中其它服务器上的Flume进行处理。Flume提供了点对点的高可用的保障,某个服务器上的Flume Agent Channel中的数据只有确保传输到了另一个服务器上的Flume Agent Channel里或者正确保存到了本地的文件存储系统中,才会被移除。

☆☆☆每一个FTP服务器以及Hadoop的name node服务器上都要部署一个Flume Agent;FTP的Flume Agent采集Web Server的日志并汇总到name node服务器上的Flume Agent,最后由hadoop name node服务器将所有的日志数据下沉到分布式的文件存储系统HDFS上面。
※※※※由于目前没有配置FTP服务器,暂时直接从nginx的access.log拉取日志到HDFS※※※
Spooling Directory Source 和 exec source区别:
当Flume服务down掉的时候Spooling Directory Source能记录上一次读取到的位置,而Exec Source则没有,需要用户自己去处理,当重启Flume服务器的时候如果处理不好就会有重复数据的问题。当然Spooling Directory Source也是有缺点的,会对读取过的文件重命名,所以多架一层FTP服务器也是为了避免Flume“污染”生产环境。Spooling Directory Source另外一个比较大的缺点就是无法做到灵活监听某个文件夹底下所有子文件夹里的所有文件里新追加的内容。关于这些问题的解决方案也有很多,比如选择其它的日志采集工具,像logstash等。
本次按照直接从测试环境拉取nginx的access.log的日志数据下沉到HDFS存储系统。
配置直接采集过程在sheet页Flume中已经完成!!

FTP服务器上的Flume配置文件如下

agent.channels = memorychannel        
agent.sinks = target        
        
agent.sources.origin.type = spooldir        
agent.sources.origin.spoolDir = /export/data/trivial/weblogs        
agent.sources.origin.channels = memorychannel        
agent.sources.origin.deserializer.maxLineLength = 2048        
        
agent.sources.origin.interceptors = i2        
agent.sources.origin.interceptors.i2.type = host        
agent.sources.origin.interceptors.i2.hostHeader = hostname        
        
agent.sinks.loggerSink.type = logger        
agent.sinks.loggerSink.channel = memorychannel        
        
agent.channels.memorychannel.type = memory        
agent.channels.memorychannel.capacity = 10000        
        
agent.sinks.target.type = avro        
agent.sinks.target.channel = memorychannel        
agent.sinks.target.hostname = 172.16.124.130        
agent.sinks.target.port = 4545   

Flume Agent Source可以通过配置deserializer.maxLineLength这个属性来指定每个Event的大小,默认是每个Event是2048个byte。Flume Agent Channel的大小默认等于于本地服务器上JVM所获取到的内存的80%,用户可以通过byteCapacityBufferPercentage和byteCapacity两个参数去进行优化。需要特别注意的是FTP上放入Flume监听的文件夹中的日志文件不能同名,不然Flume会报错并停止工作,最好的解决方案就是为每份日志文件拼上时间戳。    
在Hadoop服务器上的配置文件如下:

agent.sources = origin        
agent.channels = memorychannel        
agent.sinks = target        
        
agent.sources.origin.type = avro        
agent.sources.origin.channels = memorychannel        
agent.sources.origin.bind = 0.0.0.0        
agent.sources.origin.port = 4545        
        
#agent.sources.origin.interceptors = i1 i2        
#agent.sources.origin.interceptors.i1.type = timestamp        
#agent.sources.origin.interceptors.i2.type = host        
#agent.sources.origin.interceptors.i2.hostHeader = hostname        
        
agent.sinks.loggerSink.type = logger        
agent.sinks.loggerSink.channel = memorychannel        
        
agent.channels.memorychannel.type = memory        
agent.channels.memorychannel.capacity = 5000000        
agent.channels.memorychannel.transactionCapacity = 1000000        
        
agent.sinks.target.type = hdfs        
agent.sinks.target.channel = memorychannel        
agent.sinks.target.hdfs.path = /flume/events/%y-%m-%d/%H%M%S        
agent.sinks.target.hdfs.filePrefix = data-%{hostname}        
agent.sinks.target.hdfs.rollInterval = 60        
agent.sinks.target.hdfs.rollSize = 1073741824        
agent.sinks.target.hdfs.rollCount = 1000000        
agent.sinks.target.hdfs.round = true        
agent.sinks.target.hdfs.roundValue = 10        
agent.sinks.target.hdfs.roundUnit = minute        
agent.sinks.target.hdfs.useLocalTimeStamp = true        
agent.sinks.target.hdfs.minBlockReplicas=1        
agent.sinks.target.hdfs.writeFormat=Text        
agent.sinks.target.hdfs.fileType=DataStream

round, roundValue,roundUnit三个参数是用来配置每10分钟在hdfs里生成一个文件夹保存从FTP服务器上拉取下来的数据。

其它常见问题

①使用Flume拉取文件到HDFS中会遇到将文件分散成多个1KB-5KB的小文件的问题:    
需要注意的是如果遇到Flume会将拉取过来的文件分成很多份1KB-5KB的小文件存储到HDFS上,那么很可能是HDFS Sink的配置不正确,导致系统使用了默认配置。spooldir类型的source是将指定目录中的文件的每一行封装成一个event放入到channel中,默认每一行最大读取1024个字符。在HDFS Sink端主要是通过rollInterval(默认30秒), rollSize(默认1KB), rollCount(默认10个event)3个属性来决定写进HDFS的分片文件的大小。rollInterval表示经过多少秒后就将当前.tmp文件(写入的是从channel中过来的events)下沉到HDFS文件系统中,rollSize表示一旦.tmp文件达到一定的size后,就下沉到HDFS文件系统中,rollCount表示.tmp文件一旦写入了指定数量的events就下沉到HDFS文件系统中。    
②使用Flume拉取到HDFS中的文件格式错乱:    
这是因为HDFS Sink的配置中,hdfs.writeFormat属性默认为“Writable”会将原先的文件的内容序列化成HDFS的格式,应该手动设置成hdfs.writeFormat=“text”; 并且hdfs.fileType默认是“SequenceFile”类型的,是将所有event拼成一行,应该该手动设置成hdfs.fileType=“DataStream”,这样就可以是一行一个event,与原文件格式保持一致。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

戰士

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值