hadoop综合大作业

本案例通过分析豆瓣爬取的短评数据,利用Hadoop和Hive进行大数据处理,探讨了数据预处理、上传、查询及分析等关键步骤,揭示了数据的真实性和用户行为特征。

作业要求来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/3339

本案例主要分析在豆瓣爬取的短评数据,数据字段包括地址、评论时间、评论内容、评价程度、用户名和投票数6个属性值,将数据上传到hdfs的hive数据仓库中进行简要分析。

一、建立一个运行本案例的目录bigdatacase、dataset:

上传并查看文件

二、预处理文件,将csv生成txt文件:

1、删除第一行字段:

2、预处理字段:

 

三、将文本文件上传到hive:

1、启动hdfs:

2、在HDFS上建立/bigdatacase/dataset文件夹,将文件上传:

3、启动mysql:

4、在hive中创建数据库dblab:

5、在把hdfs中的“/bigdatabase/dataset”目录下的数据加载到了数据仓库的hive中的,在hive中查看数据,查找表的前10条记录:

四、Hive数据分析:

1、查询不重复的用户名:

 通过distinct username 查询出不重复的用户名有多少1871个,总数量2000左右,说明大部分还是比较真实的,但也有部分刷评论的。

2、查询前10被点赞情况:

3、查询评价:

 

4、查询回复的数量:

 

5、查询数据一共有多少条

 

6、查询name属性是否相同

五、总结

通过本案例,了解hdfs和hive数据仓库的大数据分析基本的原理和操作,在大量数据处理方面,hadoop在数据容纳和分析方面有着先天的优势,步骤和分析的数据还要进一步熟悉,步骤出错很容易引起一大串问题,爬取的数据要有有意义。

转载于:https://www.cnblogs.com/mofan2233/p/11031744.html

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值