
大数据
安西宁
这么多是学不完的呀!
学会当前你要用的就行了。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
如何在linux系统下运行pySpark?
环境说明虚拟机:Vmware操作系统:Centos前提:hadoop、spark、scala、pyspark等已安装进入Spark安装的根目录,在未配置运行的情况下,运行命令 ./bin/pyspark[root@Centos-7-3s /]# cd /usr/Spark/spark[root@Centos-7-3s spark]# lsbin data jars LICENSE logs python README.md sbin yarnco原创 2021-05-29 19:03:52 · 1731 阅读 · 0 评论 -
Spark基础实验
记得联网后再进行实验,否则可能报错如下:pyspark spark-shell无法指定被请求的地址: Service ‘sparkDriver’ failed after 16 retries (on a random free port)进入scala命令行模式cd /usr/Spark/spark/./bin/spark-shell 输入相关命令进行字符统计或简单计算实验scala> 1+2+3+4res0: Int = 10scala> 9*2res2: Int原创 2020-06-26 19:51:50 · 596 阅读 · 0 评论 -
Spark环境配置与安装
目前,优快云博文搜索有时候看不到博文发表时间,如果以后能像百度学术那样有搜索的时间范围选项不知道会不会更好一点。虽说百度也收录了优快云博文,可以搜到。前提,官网说明要先安装配置好java8或者java11。此处,博主安装在已经配置好Hadoop伪分布的虚拟机Linux上,Hadoop2.7.3,Java1.8.x。参考网文,首先安装Scala:Linux命令行,mkdir /usr/scala不知道为什么,官网下载按钮点击以后没有下载。于是,选择在博文自制Spark安装详细过程(含Scala原创 2020-06-05 14:47:05 · 1341 阅读 · 0 评论 -
在idea里运行调试Mapreduce程序,学习中......
目前已知三种方式,前提在VMware中搭建了Hadoop于Linux虚拟机中的运行环境。1、在Linux中下载Idea并配置maven环境,复制网上代码,在src/main/java文件夹下新建WordcountDriver.class、WordcountMapper.class、WordcountReducer.class,调整configurations确定输入输出文件位置,启动hadoop...原创 2020-04-10 15:38:19 · 739 阅读 · 0 评论 -
在Centos 7系统环境下搭建hadoop,伪分布式和完全分布式。
1、安装VMware,并新建虚拟机。https://blog.youkuaiyun.com/qq_44714603/article/details/888294232、Centos中安装JDKhttps://www.cnblogs.com/116970u/p/10400436.html3、Centos中安装Hadoophttps://www.cnblogs.com/jichui/p/7137804....原创 2020-03-10 11:04:23 · 321 阅读 · 0 评论