- 博客(2)
- 收藏
- 关注
原创 2020年美国新冠肺炎疫情数据分析
本案例以2020年美国新冠肺炎疫情数据作为数据集,以Python为编程语言,使用Spark对数据进行分析,并对分析结果进行可视化。 一、实验环境 Linux: Ubuntu 16.04 Hadoop:3.1.3 Python: 3.5 Spark: 2.4.0 Jupyter Notebook 二、数据集 1.数据集介绍 本次作业使用的数据集来自数据网站Kaggle的美国新冠肺炎疫情数据集,该数据集以数据表us-counties.csv组织,其中包含了美国发现首例新冠肺炎确诊病例至2020-05-19日
2021-06-05 20:18:31
3106
3
原创 MapReduce编程实践(Hadoop-2.7.2)
MapReduce编程实践(Hadoop-2.7.2)一、启动Hadoop二、利用Shell命令与HDFS进行交互1.创建用户目录插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入 MapReduce是谷歌公司的核心计算模型,Hadoop开源实现了MapReduce。MapReduce将复杂的
2020-12-17 01:20:14
1300
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅