hadoop搭建与eclipse开发环境设置

本文详细介绍如何在Windows环境下配置Eclipse开发环境以支持Hadoop应用程序的开发与测试,包括安装必要的插件、设置连接参数等步骤。同时,还提供了一个简单的示例程序用于演示如何操作HDFS文件系统。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

hadoop搭建与eclipse开发环境设置(转)

                                                        

1.    Windows下eclipse开发环境配置

1.1 安装开发hadoop插件

         将hadoop安装包hadoop\contrib\eclipse-plugin\hadoop-0.20.2-eclipse-plugin.jar拷贝到eclipse的插件目录plugins下。

  需要注意的是插件版本(及后面开发导入的所有jar包)与运行的hadoop一致,否则可能会出现EOFException异常。

 

重启eclipse,打开windows->open perspective->other->map/reduce 可以看到map/reduce开发视图。

 

1.2 设置连接参数

    打开windows->show view->other-> map/reduce Locations视图,在点击大象后弹出的对话框(General tab)进行参数的添加:

 

 

         参数说明如下:

         Location name:任意

         map/reduce master:与mapred-site.xml里面mapred.job.tracker设置一致。

DFS master:与core-site.xml里fs.default.name设置一致。

User name: 服务器上运行hadoop服务的用户名。

 

       然后是打开“Advanced parameters”设置面板,修改相应参数。上面的参数填写以后,也会反映到这里相应的参数:

主要关注下面几个参数:

fs.defualt.name:与core-site.xml里fs.default.name设置一致。

mapred.job.tracker:与mapred-site.xml里面mapred.job.tracker设置一致。

dfs.replication:与hdfs-site.xml里面的dfs.replication一致。

hadoop.tmp.dir:与core-site.xml里hadoop.tmp.dir设置一致。

hadoop.job.ugi:并不是设置用户名与密码。是用户与组名,所以这里填写hadoop,hadoop。

说明:第一次设置的时候可能是没有hadoop.job.ugi和dfs.replication参数的,不要紧,确认保存。打开Project Explorer中DFS Locations目录,应该可以年看到文件系统中的结构了。但是在/hadoop/mapred/system下却没有查看权限,如下图:

 

 

而且删除文件的时候也会报错:

 

这个原因是我使用地本用户Administrator(我是用管理员用户登陆来地windows系统的)进行远程hadoop系统操作,没有权限。

 

此时再打开“Advanced parameters”设置面板,应该可以看到hadoop.job.ugi了,这个参数默认是本地操作系统的用户名,如果不幸与远程hadoop用户不一致,那就要改过来了,将hadoop加在第一个,并用逗号分隔。如:

   保存配置后,重新启动eclipse。/hadoop/mapred/system下就一目了然了,删除文件也OK。

 

1.3 运行hadoop程序

首先将hadoop安装包下面的所有jar包都导到eclipse工程里。

然后建立一个类:DFSOperator.java,该类写了四个基本方法:创建文件,删除文件,把文件内容读为字符串,将字符串写入文件。同时有个main函数,可以修改测试:

 

package com.kingdee.hadoop;

 

import java.io.BufferedReader;

import java.io.IOException;

import java.io.InputStream;

import java.io.InputStreamReader;

 

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

 

/**

 *

 * The utilities to operate file on hadoop hdfs.

 *

 * @author luolihui 2011-07-18

 *

 */

public class DFSOperator {

        

         private static final String ROOT_PATH = "hdfs:///";

         private static final int BUFFER_SIZE = 4096;

        

         /**

          * construct.

          */

         public DFSOperator(){}

 

     /**

     * Create a file on hdfs.The root path is /.<br>

     * for example: DFSOperator.createFile("/lory/test1.txt", true);

          * @param path  the file name to open

          * @param overwrite if a file with this name already exists, then if true, the file will be

          * @return true if delete is successful else IOException.

          * @throws IOException

          */

         public static boolean createFile(String path, boolean overwrite) throws IOException

         {

                   //String uri = "hdfs://192.168.1.100:9000";

                   //FileSystem fs1 = FileSystem.get(URI.create(uri), conf); 

 

                   Configuration conf = new Configuration();

                   FileSystem fs = FileSystem.get(conf);

                   Path f = new Path(ROOT_PATH + path); 

                   fs.create(f, overwrite);

                   fs.close();

                   return true;

         }

        

    /**

     * Delete a file on hdfs.The root path is /. <br>

     * for example: DFSOperator.deleteFile("/user/hadoop/output", true);

     * @param path the path to delete

     * @param recursive  if path is a directory and set to true, the directory is deleted else throws an exception. In case of a file the recursive can be set to either true or false.

     * @return true if delete is successful else IOException.

     * @throws IOException

     */

         public static boolean deleteFile(String path, boolean recursive) throws IOException

         {

                   //String uri = "hdfs://192.168.1.100:9000";

                   //FileSystem fs1 = FileSystem.get(URI.create(uri), conf); 

                  

                   Configuration conf = new Configuration();

                   FileSystem fs = FileSystem.get(conf);

                   Path f = new Path(ROOT_PATH + path); 

                   fs.delete(f, recursive);

                   fs.close();

                   return true;

         }

        

         /**

          * Read a file to string on hadoop hdfs. From stream to string. <br>

          * for example: System.out.println(DFSOperator.readDFSFileToString("/user/hadoop/input/test3.txt"));

          * @param path the path to read

          * @return true if read is successful else IOException.

          * @throws IOException

          */

         public static String readDFSFileToString(String path) throws IOException

         {

                   Configuration conf = new Configuration();

                   FileSystem fs = FileSystem.get(conf);

                   Path f = new Path(ROOT_PATH + path);

                   InputStream in = null;

                   String str = null;

                   StringBuilder sb = new StringBuilder(BUFFER_SIZE);

                   if (fs.exists(f))

                   {

                            in = fs.open(f);

                            BufferedReader bf = new BufferedReader(new InputStreamReader(in));

                           

                            while ((str = bf.readLine()) != null)

                            {

                                     sb.append(str);

                                     sb.append("\n");

                            }

                           

                            in.close();

                            bf.close();

                            fs.close();

                            return sb.toString();

                   }

                   else

                   {

                            return null;

                   }

                  

         }

         /**

          * Write string to a hadoop hdfs file. <br>

          * for example: DFSOperator.writeStringToDFSFile("/lory/test1.txt", "You are a bad man.\nReally!\n");

          * @param path the file where the string to write in.

          * @param string the context to write in a file.

          * @return true if write is successful else IOException.

          * @throws IOException

          */

         public static boolean writeStringToDFSFile(String path, String string) throws IOException

         {

                   Configuration conf = new Configuration();

                   FileSystem fs = FileSystem.get(conf);

                   FSDataOutputStream os = null;

                   Path f = new Path(ROOT_PATH + path);

                   os = fs.create(f,true);

                   os.writeBytes(string);

                  

                   os.close();

                   fs.close();

                   return true;

         }

 

         public static void main(String[] args)

         {

                   try {

                            DFSOperator.createFile("/lory/test1.txt", true);

                            DFSOperator.deleteFile("/dfs_operator.txt", true);

                            DFSOperator.writeStringToDFSFile("/lory/test1.txt", "You are a bad man.\nReally?\n");

                            System.out.println(DFSOperator.readDFSFileToString("/lory/test1.txt"));

                   } catch (IOException e) {

                            // TODO Auto-generated catch block

                            e.printStackTrace();

                   }

                   System.out.println("===end===");

         }

}

        

 

然后Run AsàRun on HadoopàChoose an exitsing server from the list belowàfinish.

 

结果很简单(那个警告不管):

11/07/16 18:44:32 WARN conf.Configuration: DEPRECATED: hadoop-site.xml found in the classpath. Usage of hadoop-site.xml is deprecated. Instead use core-site.xml, mapred-site.xml and hdfs-site.xml to override properties of core-default.xml, mapred-default.xml and hdfs-default.xml respectively

You are a bad man.

Really?

 

===end===

 

也可以运行hadoop自带的WorkCount程序,找到其源代码导进来,然后设置输入输出参数,然后同样“Run on hadoop”。具体步骤不再示范。

每“Run on hadoop”都会在workspace\.metadata\.plugins\org.apache.hadoop.eclipse下生成临时jar包。不过第一次需要Run on hadoop,以后只需要点击那运行的绿色按钮了。

 

 

2.    错误及处理

2.1 安全模式问题

我在eclipse上删除DFS上的文件夹时,出现下面错误:

 

错误提示说得也比较明示,是NameNode在安全模式中,其解决方案也一并给出。

类似的运行hadoop程序时,有时候会报以下错误:

org.apache.hadoop.dfs.SafeModeException: Cannot delete /user/hadoop/input. Name node is in safe mode

 

解除安全模式:

bin/hadoop dfsadmin -safemode leave 

 

用户可以通过dfsadmin -safemode value  来操作安全模式,参数value的说明如下:

enter - 进入安全模式

leave - 强制NameNode离开安全模式

get -  返回安全模式是否开启的信息

wait - 等待,一直到安全模式结束。

 

2.2 开发时报错Permission denied

org.apache.hadoop.security.AccessControlException: org.apache.hadoop.security.AccessControlException: Permission denied: user=Administrator, access=WRITE, inode="test1.txt":hadoop:supergroup:rw-r--r--

    at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)

    at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:39)

    at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:27)

    at java.lang.reflect.Constructor.newInstance(Constructor.java:513)

    at org.apache.hadoop.ipc.RemoteException.instantiateException(RemoteException.java:96)

    at org.apache.hadoop.ipc.RemoteException.unwrapRemoteException(RemoteException.java:58)

    at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.<init>(DFSClient.java:2710)

    at org.apache.hadoop.hdfs.DFSClient.create(DFSClient.java:492)

    at org.apache.hadoop.hdfs.DistributedFileSystem.create(DistributedFileSystem.java:195)

    at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:484)

    at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:465)

    at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:372)

    at com.kingdee.hadoop.DFSOperator.createFile(DFSOperator.java:46)

    at com.kingdee.hadoop.DFSOperator.main(DFSOperator.java:134)

 

解决方法是,在“Advanced parameters”设置面板,设置hadoop.job.ugi参数,将hadoop用户加上去。

 

变为:

 

 

然后重新在运行中”Run on hadoop”。

另一方法是改变要操作的文件的权限。

Permission denied: user=Administrator, access=WRITE, inode="test1.txt":hadoop:supergroup:rw-r--r--

  上面的意思是:test1.txt文件的访问权限是rw-r--r--,归属组是supergroup,归属用户是hadoop,现在使用Administrator用户对test1.txt文件进行WRITE方式访问,被拒绝了。

所以可以改变下test1.txt文件的访问权限:

$ hadoop fs –chmod 777 /lory/test1.txt

$ hadoop fs –chmod 777 /lory     #或者上一级文件夹

  当然使用-chown命令也可以。

转载于:https://www.cnblogs.com/Xmingzi/p/5762187.html

基于数据挖掘的音乐推荐系统设计实现 需要一个代码说明,不需要论文 采用python语言,django框架,mysql数据库开发 编程环境:pycharm,mysql8.0 系统分为前台+后台模式开发 网站前台: 用户注册, 登录 搜索音乐,音乐欣赏(可以在线进行播放) 用户登陆时选择相关感兴趣的音乐风格 音乐收藏 音乐推荐算法:(重点) 本课题需要大量用户行为(如播放记录、收藏列表)、音乐特征(如音频特征、歌曲元数据)等数据 (1)根据用户之间相似性或关联性,给一个用户推荐其相似或有关联的其他用户所感兴趣的音乐; (2)根据音乐之间的相似性或关联性,给一个用户推荐其感兴趣的音乐相似或有关联的其他音乐。 基于用户的推荐和基于物品的推荐 其中基于用户的推荐是基于用户的相似度找出相似相似用户,然后向目标用户推荐其相似用户喜欢的东西(和你类似的人也喜欢**东西); 而基于物品的推荐是基于物品的相似度找出相似的物品做推荐(喜欢该音乐的人还喜欢了**音乐); 管理员 管理员信息管理 注册用户管理,审核 音乐爬虫(爬虫方式爬取网站音乐数据) 音乐信息管理(上传歌曲MP3,以便前台播放) 音乐收藏管理 用户 用户资料修改 我的音乐收藏 完整前后端源码,部署后可正常运行! 环境说明 开发语言:python后端 python版本:3.7 数据库:mysql 5.7+ 数据库工具:Navicat11+ 开发软件:pycharm
MPU6050是一款广泛应用在无人机、机器人和运动设备中的六轴姿态传感器,它集成了三轴陀螺仪和三轴加速度计。这款传感器能够实时监测并提供设备的角速度和线性加速度数据,对于理解物体的动态运动状态至关重要。在Arduino平台上,通过特定的库文件可以方便地MPU6050进行通信,获取并解析传感器数据。 `MPU6050.cpp`和`MPU6050.h`是Arduino库的关键组成部分。`MPU6050.h`是头文件,包含了定义传感器接口和函数声明。它定义了类`MPU6050`,该类包含了初始化传感器、读取数据等方法。例如,`begin()`函数用于设置传感器的工作模式和I2C地址,`getAcceleration()`和`getGyroscope()`则分别用于获取加速度和角速度数据。 在Arduino项目中,首先需要包含`MPU6050.h`头文件,然后创建`MPU6050`对象,并调用`begin()`函数初始化传感器。之后,可以通过循环调用`getAcceleration()`和`getGyroscope()`来不断更新传感器读数。为了处理这些原始数据,通常还需要进行校准和滤波,以消除噪声和漂移。 I2C通信协议是MPU6050Arduino交互的基础,它是一种低引脚数的串行通信协议,允许多个设备共享一对数据线。Arduino板上的Wire库提供了I2C通信的底层支持,使得用户无需深入了解通信细节,就能方便地MPU6050交互。 MPU6050传感器的数据包括加速度(X、Y、Z轴)和角速度(同样为X、Y、Z轴)。加速度数据可以用来计算物体的静态位置和动态运动,而角速度数据则能反映物体转动的速度。结合这两个数据,可以进一步计算出物体的姿态(如角度和角速度变化)。 在嵌入式开发领域,特别是使用STM32微控制器时,也可以找到类似的库来驱动MPU6050。STM32通常具有更强大的处理能力和更多的GPIO口,可以实现更复杂的控制算法。然而,基本的传感器操作流程和数据处理原理Arduino平台相似。 在实际应用中,除了基本的传感器读取,还可能涉及到温度补偿、低功耗模式设置、DMP(数字运动处理器)功能的利用等高级特性。DMP可以帮助处理传感器数据,实现更高级的运动估计,减轻主控制器的计算负担。 MPU6050是一个强大的六轴传感器,广泛应用于各种需要实时运动追踪的项目中。通过 Arduino 或 STM32 的库文件,开发者可以轻松地传感器交互,获取并处理数据,实现各种创新应用。博客和其他开源资源是学习和解决问题的重要途径,通过这些资源,开发者可以获得关于MPU6050的详细信息和实践指南
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值