一:用java操作hdfs,首先要将hdfs依赖的jar包导入到java工程中来.那么hadoop依赖的jar包有哪些呢?首先看一下hadoop的目录结构
由hadoop目录可得,想要用java操作hdfs,就添加hadoop的依赖。具体操作如下:
1. hadoop-2.7.3/share/hadoop/common下的三个jar包以及hadoop/common/lib的所有jar包复制到java工程的lib目录下
2. hadoop-2.7.3/share/hadoop/hdfs下的三个jar包以及hadoop/ hdfs/lib的所有jar包复制进java工程的lib目录下
二:添加hadoop依赖的具体步骤如下
1.在HdfsDemo工程下创建lib目录,用来添加hadoop依赖的jar包
2.将hadoop依赖的jar包导入到lib目录下。具体操作如下
(1)将hadoop2.7.3/share/hadoop/common下的三个jar包以及hadoop/common/lib的所有jar包复制到java工程的lib目录下
(2) 将hadoop-2.7.3/share/hadoop/hdfs下的三个jar包以及hadoop/ hdfs/lib的所有jar包复制进java工程的lib目录下
3.将lib目录添加进项目中来
4. jdk1.8( 在Dependencies依赖下)
5.点击jdk1.8后面的“+”号,添加jar包或者目录
6.自动定位到项目工程
7.定位到工程下的lib目录,点击确定
8.可以看见添加lib目录到项目中成功
9.开始开发我们的hdfs程序了
本文介绍用Java操作HDFS的方法,重点阐述添加Hadoop依赖的步骤。需将hadoop-2.7.3/share/hadoop/common及hdfs下的特定jar包和对应lib目录的所有jar包复制到Java工程的lib目录,再将lib目录添加进项目,之后便可开发HDFS程序。













4044

被折叠的 条评论
为什么被折叠?



