pyspark集成anaconda类库,pyspark调用hive
CDH版oozie调取pyspark调取hive
1.oozie调取操作hive的pyspark的python脚本
问题:找不到hive库
解决方案:将hive-site.xml放到oozie/show/lib/lib_+日期 目录下
解决代码:
from pyspark import SparkConf,SparkContext;
from pyspark.sql import SQLContext,HiveContext;
conf =SparkConf().setAppName("test11");
sc= SparkContext(conf=conf)
sqlContext= HiveContext(sc)
tables=sqlContext.sql("select * from test");
tables.show();
CDH集成ananconda类库,调用pyspark
安装步骤:
1.下载anaconda parcel包
Anaconda-4.0.0-el6.parcel
Anaconda-4.0.0-el6.parcel.sha
manifest.json
下载地址:http://archive.cloudera.com/cdh5/parcels/5.14.0/
2.上传下载的三个包到/var/www/http/anaconda3(anaconda3自己建)
问题:如果http://ip/anacond

本文详细介绍了如何在CDH集群中集成Anaconda环境,并使用PySpark调用Hive进行数据处理。包括下载并上传Anaconda parcel包至CDH,配置环境变量,以及解决调用Hive时遇到的问题。
最低0.47元/天 解锁文章
1164

被折叠的 条评论
为什么被折叠?



