Hadoop-IDEA开发平台搭建

1.安装下载Hadoop文件

1)hadoop-3.3.5 将下载的文件保存到英文路径下,名称一定要短。否则容易出问题;

2)解压下载下来的文件,配置环境变量

3)我的电脑-属性-高级设置-环境变量

4.详细配置文件如下:

HADOOP_HOME:   D:\ProgramFiles\hadoop-3.3.5
系统 path: %HADOOP_HOME%\bin %HADOOP_HOME%\sbin

2.安装windows环境依赖

需要有windows客户端依赖资料路径下的依赖文件(已上传到平台),拷贝 winutils.exe hadoopbin文件夹: ~\hadoop-3.3.5\bin;再把 hadoop.dll 拷贝到 C:\Windows\System32。

6)验证Hadoop环境变量是否正常。

鼠标双击运行:winutils.exe,若没有报错,一闪而过,就可以了。(如果报如下错误:找不到MSVCR120.dll。说明缺少微软运行库(正版系统往往有这个问题)。再资料包里面有对应的微软运行库安装包双击安装即可。)

3.安装JDK-1.8.371IDEA 2023

1)注册oracle账号后,下载地址: https://www.oracle.com/java/technologies/downloads/#java8-windows

2)安装的时候,可以只安装 jdk1.8,不安装独立的jre。若电脑上有多个JDK版本,需要在配置环境变量的时候小心。

3)验证java 是否安装成功:cmd - 中输入名: java -version

4) 下载好IDEA2023,可从官网下载安装。(IntelliJ IDEA – 领先的 Java 和 Kotlin IDE

插件需要下载下,另外激活可参见-IDEA PyCharm WebStorm PhpStorm Jetbrains全家桶最新破解激活码 - 爱激活网

4.打开工程目录-创建项目工程

按照上述的内容填写后,建立Maven 工程。

5.修改配置文件中的依赖

1)添加junit插件 - test 插件 2)添加org.slf4j --日志

pom.xml文件中的依赖项如下:

 <dependencies>

    <dependency>

      <groupId>org.apache.hadoop</groupId>

      <artifactId>hadoop-client</artifactId>

      <version>3.3.5</version>

    </dependency>

    <dependency>

      <groupId>junit</groupId>

      <artifactId>junit</artifactId>

      <version>4.12</version>

<!--      一定要把下面的这个scope注释掉-->

<!--      <scope>test</scope>-->

    </dependency>

    <dependency>

      <groupId>org.slf4j</groupId>

      <artifactId>slf4j-log4j12</artifactId>

      <version>1.7.36</version>

    </dependency>

  </dependencies>

添加配置文件后,在页面又上角有个M图标,可以点击下,会自动刷新,之后需要从Maven仓库依赖 dependency;

 一定要和服务器上安装的版本一致:

6.为工程配置日志文件

IDEA中创建一个Maven工程  Ktest,并导入相应的依赖坐标+日志添加

在项目的src/main/resources目录下,新建一个文件,命名为“log4j.properties”,在文件中填入

log4j.rootLogger=INFO, stdout 

log4j.appender.stdout=org.apache.log4j.ConsoleAppender 

log4j.appender.stdout.layout=org.apache.log4j.PatternLayout 

log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n 

log4j.appender.logfile=org.apache.log4j.FileAppender 

log4j.appender.logfile.File=target/spring.log 

log4j.appender.logfile.layout=org.apache.log4j.PatternLayout 

log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n

6.在包下面新建一个类名

7.在服务器上尝试创建文件夹

编写代码-HDFS文件系统中写入一个 `/yiji/ercengmulu` 的文件.

-------------------------------------------------------------------------------------

package org.example;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.Test;

import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;

public class Testt{

    @Test //引入当时添加的Junit
    public void testMkdirs() throws URISyntaxException,IOException,InterruptedException{
        //创建连接集群的Name Node地址
        URI uri     = new URI("hdfs://hadoop102:8020");
        //创建配置项
        Configuration conf = new Configuration();
         //指定用户
        String user = "antares";
        //获取客户端对象
        FileSystem fs = FileSystem.get(uri,conf,user);

        fs.mkdirs(new Path("/yiji/ercengmulu"));
        fs.close();

    }
}

8. 打开服务器上的部署的服务

hadoop102:8020 --- 需要在服务器端打开Hadoop,之后才能运行刚刚创建的类。

测试通过。

<think>好的,我现在需要回答用户关于如何在IntelliJ IDEA中配置Hadoop环境的问题。首先,我得整理用户提供的引用资料,确保信息准确。用户提到了几个引用,其中引用[5]似乎详细说明了非Maven配置的步骤,而其他引用提到了插件、Maven配置、添加JAR包等内容。我需要将这些步骤系统地组织起来,确保逻辑清晰,步骤正确。 第一步,应该从准备工作开始,比如下载Hadoop安装包和相关依赖。用户引用[5]提到需要下载Hadoop包和winutils,这部分很重要,特别是对于Windows用户来说,winutils是必需的。接着,安装Hadoop并配置环境变量,这也是常见的配置步骤,需要详细说明路径的设置。 然后,在IDEA中创建新项目,这里可能需要选择Java项目,并配置JDK。用户提到的引用[3]提到需要将Hadoop的common/lib下的所有JAR包添加到工程中,所以添加Hadoop依赖是关键步骤。这里需要分情况,如果是非Maven项目,手动添加JAR;如果是Maven项目,则修改pom.xml。引用[2]和[4]提到了Maven的配置,所以需要涵盖这两种情况。 接下来是配置Hadoop运行环境,这部分可能包括设置HADOOP_HOME环境变量,或者在代码中指定资源路径。用户引用[3]和[5]提到了环境变量和权限问题,需要注意Windows下的路径问题和Linux下的权限设置。 然后,编写测试代码,比如一个简单的WordCount程序,这能验证配置是否成功。这里需要确保用户正确使用Hadoop的API,并处理输入输出路径。同时,用户引用[4]提到了生成JAR包,可能需要在打包时包含依赖,这部分可以作为部署步骤补充。 最后,常见问题处理,比如JAR包未正确引用导致的红色提示,或者权限问题。引用[5]中的6.1和6.2节提到了这些问题,需要给出解决方法,比如检查路径、使用管理员权限或修改HDFS权限。 在组织这些步骤时,要确保符合用户的要求:使用中文,数学公式正确,行内公式用$,独立公式用$$。不过在这个问题中可能涉及数学公式较少,但需要注意代码块的格式,以及引用标识的正确添加。每个步骤后需要自然地添加引用,例如引用[5]或引用[3]。 需要检查是否有遗漏的步骤,比如插件安装,引用[1]提到HadoopIntellijPlugin,但可能用户更关注基本配置,所以可能作为可选步骤。同时,确保各部分逻辑连贯,避免重复,并覆盖用户可能遇到的问题。</think>### IntelliJ IDEA配置Hadoop环境详细教程 #### 一、准备工作 1. **下载Hadoop安装包** 从Apache官网下载对应版本(如hadoop-2.6.2),解压到本地路径(例如`D:\hadoop-2.6.2`)[^5]。 2. **下载winutils(仅Windows用户)** 需额外下载`winutils.exe`和`hadoop.dll`,放入Hadoop的`bin`目录下[^5]。 #### 二、配置Hadoop环境变量 1. **添加系统变量** - `HADOOP_HOME`: 指向Hadoop安装路径(如`D:\hadoop-2.6.2`) - `PATH`: 追加`%HADOOP_HOME%\bin` ```shell # Linux示例 export HADOOP_HOME=/usr/hadoop/hadoop-2.6.2 export PATH=$PATH:$HADOOP_HOME/bin ``` #### 三、IDEA项目配置 1. **创建Java项目** 新建项目时选择JDK版本(建议JDK8+),项目类型为普通Java项目。 2. **添加Hadoop依赖** - **非Maven项目**:手动导入所有JAR包 ```text hadoop-common-2.6.2.jar hadoop-hdfs-2.6.2.jar hadoop-mapreduce-client-core-2.6.2.jar ...(其他依赖包) ``` 路径:`hadoop-2.6.2/share/hadoop/common/lib/*.jar`[^3] - **Maven项目**:在`pom.xml`中添加依赖 ```xml <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-common</artifactId> <version>2.6.2</version> </dependency> ``` [^2][^4] #### 四、配置Hadoop运行环境 1. **设置Hadoop本地库路径** 在代码中指定`hadoop.home.dir`: ```java System.setProperty("hadoop.home.dir", "D:\\hadoop-2.6.2"); ``` 2. **处理HDFS权限(Linux/Windows)** ```java // 解决Permission denied问题 Configuration conf = new Configuration(); conf.set("dfs.permissions.enabled", "false"); ``` #### 五、编写测试代码(WordCount示例) ```java public class WordCount { public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); Job job = Job.getInstance(conf, "word count"); job.setJarByClass(WordCount.class); job.setMapperClass(TokenizerMapper.class); job.setReducerClass(IntSumReducer.class); // ...(其他配置) FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); System.exit(job.waitForCompletion(true) ? 0 : 1); } } ``` #### 六、打包与部署 1. **生成可执行JAR** 在IDEA中选择`Artifacts`配置,包含所有依赖库。 2. **上传到Hadoop集群** ```shell hadoop jar wordcount.jar input_path output_path ``` #### 七、常见问题解决 1. **JAR包红色提示** - 检查`File -> Project Structure -> Libraries`是否完整导入JAR 2. **Permission denied** - Windows:以管理员身份运行IDEA - Linux:执行`hdfs dfs -chmod 777 /user`[^3] 3. **ClassNotFound异常** 确保`hadoop-common`等核心库已正确加载[^3]
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值