Hadoop---在window下的安装配置----基于cygwin的

本文详细介绍了如何下载、解压、配置Hadoop,并通过安装示例验证了配置的正确性,包括设置环境变量、配置核心文件等步骤。

1.  下载hadoop安装包

   可以到这个网站上下载http://www.apache.org/dist//hadoop/core/如果下载不下来自己到网上找找很多的。选一个版本下载。我用的是hadoop-0.20.2

2.解压到一个目录下。随便选择按个目录。建议直接选择一个根目录。随后进行配置。这里配置的是伪分布式了。需要配置四个文件。都在conf目录下。分别为:hadoop-env.shcore-site.xmlhdfs-site.xmlmapred-site.xml。下面逐一说明:

3.hadoop-env.sh

     这个文件中主要配置JAVA_HOME路径。需要注意的是:1.jkd1.6以上版本。2.路径应该是linux风格的。打开后将export前面的#注释符去掉,路径为/cygdrive/你的jdk路径。如果路径中有空格需要将路径用‘’括起来。设置后如下图:

 

 

4. core-site.xml

      配置属性很多。到也可以简化自己设置几个属性就可以了。这里我们直接复制src/core下的core-default.xmlconf下并改名为core-site.xml替换原来的。修改下列属性如下:<?xml:namespace prefix = o ns = "urn:schemas-microsoft-com:office:office" />

<property>

            <name>hadoop.tmp.dir</name>

            <value>/hadoop/tmp</value>

            <description>A base for other temporary directories.</description>

</property>

     设置临时的文件hadoop默认中有了但重启后会被删除所以还得需要格式化所以手动设定一个。避免格式化。

<property>

            <name>fs.default.name</name>

            <value>hdfs://localhost:9000</value>

 </property>

5. hdfs-site.xml

这个也同样到src/hdfs下把hdfs-default.xml复制到conf下改名替换。修改下列属性:

       <property>

           <name>dfs.name.dir</name>

           <value>/hadoop/name</value>

           <description> </description>

       </property>

       DFS名节点存放位置

       <property>

           <name>dfs.data.dir</name>

           <value>/hadoop/data</value>

           <description></description>

       </property>

       DFS数据节点存放位置

       <property>

           <name>dfs.replication</name>

           <value>1</value>

           <description></description>

       </property>

       存放副本数,这是为了安全考虑的在集群中要多放几个。咱们是伪分布式的就一个可以了。

6. mapred-site.xml

这个也同样到src/mapred中把mapred-default.xml复制到conf中改名替换。修改下列属性:

       <property>

           <name>mapred.job.tracker</name>

           <value>localhost:9001</value>

           <description></description>

       </property>

     MapReduce jog tracker运行在所在主机及端口号。

       <property>

           <name>mapred.local.dir</name>

           <value>/hadoop/temp</value>

           <description> </description>

       </property>

    MapReduce的运行中间数据文件的存放路径

7. 这就可以了。设置就结束了。下面运行试一试。

使用cygwin进入到hadoop安装路径下的bin文件夹中。查看显示如下:

首先格式化:./hadoop namenode format 如果让选择Y/N 选择Y。如下图:

其次运行:./start-sh.all 如下图则成功了。总共会启动五个节点。

最后:运行一下自带的wordcount例子。

1.先在本地文件建立一个文件夹(最好建在hadoop的安装文件在同一个目录下)testin随后在里面建几个文件txtjava的随意。在里面输入以下英文单字。如file1.java 内容Hello world file2.java 内容:I love you

2.cygwin中将一个hadoop hdfs上的目录如testin。命令如下:

./hadoop dfs mkdir testin

3.将本地的两个文件上传到dfs上去。

./hadoop dfs put /testin/*.java testin

     此时运行./hadoop dfs ls testin 就会就会发现已有了这两个文件了。

     23步执行如下图:


    4.
执行

   ./hadoop jar ./../hadoop-0.20.2-examples.jar wordcount testin testout

如下图则成功了

运行上述命令可能会出现在如下错误

 

解决办法是:

mapred-site.xml中的mapred.child.tmp修改为D:/hadoop/tmp(当然也可以为其它目录),并在运行hadoop之前创建好它,目录权限设置为wxr,它的默认值为./tmp,使用默认值就会报FileNotFound错误。

原文连接:http://www.hadoopor.com/thread-415-1-1.html

5.查看结果

   ./hadoop dfs -ls testout 会发现下面有两个文件一个是日志一个是结果文件。

   ./hadoop dfs -cat testout/part-r-00000 查看统计单字的结果文件

执行如下图:

 

至此hadoop就安装配置都已结束并经过测试已经可以正常运行了。开始云学习吧

 

转载于:https://www.cnblogs.com/eagleone/archive/2011/08/27/2155294.html

Windows系统上安装配置Hadoop可以按照以下步骤进行: 1. 安装JDK:首先,需要安装JDK 1.6或更高版本。你可以从Oracle官网下载[JDK](https://www.oracle.com/java/technologies/javase-jdk14-downloads.html)并按照安装向导进行安装安装完成后,确保将JDK的路径添加到系统的环境变量中。 2. 安装CygwinCygwin是一个在Windows环境下提供类Unix功能的开源工具。你可以从[Cygwin官网](http://cygwin.com/install.html)下载安装程序并按照指南进行安装安装过程中需要选择一些基本软件包和组件,确保选择安装OpenSSH、rsync、tar、unzip等工具。 3. 下载Hadoop:从[Hadoop官网](https://archive.apache.org/dist/hadoop/)下载所需要的Hadoop版本,并解压到一个合适的目录。 4. 配置环境变量:将Hadoop的bin目录路径添加到系统的环境变量中。你可以通过以下步骤进行配置- 右键点击“计算机”(或“此电脑”,根据操作系统语言不同)图标,选择“属性”。 - 在窗口左侧选择“高级系统设置”。 - 在弹出的窗口中,点击“环境变量”按钮。 - 在“系统变量”部分中,找到名为“Path”的变量,并双击进行编辑。 - 在变量值的末尾添加Hadoop的bin目录路径,例如:C:\hadoop-1.2.1\bin。 - 点击“确定”保存配置。 5. 配置winutils:根据你下载的Hadoop版本,去[Hadoop官网](https://archive.apache.org/dist/hadoop/)找到对应版本的winutils。将下载好的winutils\bin目录下的文件复制到Hadoop的bin目录中。另外,将hadoop.dll文件复制到C:\Windows\System32目录中。 至此,你已经完成了HadoopWindows系统下的安装配置。你可以进一步根据Hadoop的[官方文档](http://hadoop.apache.org/docs/stable/cluster_setup.html)了解如何使用和配置Hadoop集群。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值