
hadoop
文章平均质量分 57
yijichangkong
这个作者很懒,什么都没留下…
展开
-
在spark上运行独立程序(Self-Contained Applications)
在hadoop集群上搭好spark环境及体验spark shell之后可以重新做做官方的快速上手。运行独立程序(SimpleApp.py): 首先编写程序(这里用Pytho的API): from pyspark import SparkContextlogFile = "README.md" #注意这里的文件是在hdfs中的sc = SparkContext("local","Simp原创 2015-07-05 16:27:57 · 2294 阅读 · 2 评论 -
spark-shell初体验
1、复制文件至HDFS:hadoop@Mhadoop:/usr/local/hadoop$ bin/hdfs dfs -mkdir /userhadoop@Mhadoop:/usr/local/hadoop$ bin/hdfs dfs -mkdir /user/hadoophadoop@Mhadoop:/usr/local/hadoop$ bin/hdfs dfs -copyFromL原创 2015-05-02 13:50:45 · 2105 阅读 · 0 评论 -
hadoop集群只有一个datanode启动问题
之前不懂犯了个低级错误,导致datanode只能启动一个;很是奇怪;首先,之前多次将namenode格式化,导致namenode和datanode的clusterID不一致无法启动datanode注:clusterID在/usr/local/hadoop/hdfs/name/current目录下;解决方案:修改Shadoop1 和 Shadoop2 的data/current目录下的V原创 2015-05-02 12:46:00 · 19931 阅读 · 4 评论 -
我的hadoop2.4安装过程
先记录下安装dk出现的问题:原创 2015-05-01 16:02:57 · 978 阅读 · 0 评论 -
在hadoop2.4集群环境下安装spark
1、下载spark最新版:http://spark.apache.org/downloads.html下载对应的Scala版本:http://www.scala-lang.org/download/原创 2015-05-01 15:57:37 · 3523 阅读 · 2 评论