
spark
文章平均质量分 71
xiaokang06
这个作者很懒,什么都没留下…
展开
-
安装Hadoop及Spark(Ubuntu 16.04)
转自:http://www.cnblogs.com/bovenson/p/5760856.html安装Hadoop及Spark(Ubuntu 16.04)安装JDK下载jdk(以jdk-8u91-linux-x64.tar.gz为例)新建文件夹sudo mkdir /usr/lib/jvm解压下载的jdk文件并移动到新建的文件夹下转载 2017-04-22 13:15:32 · 430 阅读 · 0 评论 -
pycharm配置spark
pycharm 配置spark在Run->Configuration->Defaults->Python->Environment variables下,配置:PYTHONPATH /home/xxx/software/spark-2.1.0-bin-hadoop2.7/python:/home/xxx/software/spark-2.1.0-bin-hadoop2.7/pyth原创 2017-04-22 13:24:31 · 858 阅读 · 0 评论