hadoop的伪分布环境安装

本文为Hadoop初学者提供详细的环境搭建步骤,包括VMware、CentOS安装,以及Hadoop集群配置过程。涵盖SSH无密码登录设置、环境变量配置、HDFS格式化等关键操作。

作为一个hadoop的初学者,我觉得写一篇入门级别的hadoop环境搭建分布很有必要,记录一下.另外本人第一次书写这样的blog.希望各路大神多多指教.

首先,准备好相关系统软件

  • vmware14 (大小140M)
  • centos7(大小4G)
  • hadoop-0.20.2 (大小42.5M)
  • jdk-7u25-linux-x64.tar (大小91M)

然后安装vmware(详细过程不多讲)
安装centos7
安装vmwaretools(方便文件互传)

这就是安装完成的效果
这就是安装完成的效果

然后改hosts hostname
ifconfig查看ip地址

然后建立文件夹.放在usr/local/hadoop下
mkdir -p /usr/local/hadoop/tmp
mkdir –P /usr/local/java
rmdir

查看用户的组别信息 cat /etc/group
然后给该文件夹赋权 chown -R hadoop:hadoop /usr/local/hadoop
然后配置SSH无密码登入
ssh-keygen -t rsa

修改java的环境变量vim /etc/profile

set java environment

export JAVA_HOME=/usr/local/java/jdk1.6.0_41/

export HADOOP_HOME_WARN_SUPPRESS=1

export HADOOP_CLASSPATH=/usr/local/hadoop/hadoop-0.20.2:/usr/local/hadoop/hadoop-0.20.2/lib

set java enviroment

export HADOOP_HOME=/usr/local/hadoop/hadoop-0.20.2

export HADOOP_HOME_WARN_SUPPRESS=1

JAVA_HOME=/usr/local/java/jdk1.6.0_41

JRE_HOME=/usr/local/java/jdk1.6.0_41/jre

PATH=JAVAHOME/bin:JRE_HOME/bin:HADOOPHOME/bin:PATH

CLASSPATH=.:JAVAHOME/bin/dt.jar:JAVA_HOME/lib/tools.jar

export JAVA_HOME CLASSPATH PATH

   <name>fs.default.name</name>

   <value>hdfs://NameNode:9000</value>

</property>



<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop/tmp</value> 

</property>

vi core-site.xml
[root@h0 conf]# vi hdfs-site.xml
[root@h0 conf]# vi mapred-site.xml
[root@h0 conf]# vi masters
[root@h0 conf]# vi slaves

完成之后就复制虚拟机

然后开始配置SSH 和 HOSTS
ssh-keygen -t rsa
生成ssh

namenode 无法启动 删除format时禁止的目录
50070无法访问 关闭防火墙,清理缓存 systemctl stop firewalld.service #停止

导入项目要maven 导入中的reimport
echo “hello world”>text1.txt

bin/hadoop dfs -put /root/input in
bin/hadoop dfs -ls ./in/*

bin/hadoop jar hadoop-0.20.2-examples.jar wordcount in out

bin/hadoop dfs -cat ./out/*

进入退出安全模式
bin/hadoop dfsadmin -safemode enter
bin/hadoop dfsadmin -safemode leave

直接进入
bin/hadoop dfsadmin -enter

添加节点,
1.安装好hadoop
2.把namenode 有关配置文件复制到该节点
3.修改matster 和slaves增加
4.ssh免密码
5.单独启动节点上的datanode和tasktracker
hadoop-daemon.sh start datanode/tasktracker
6.运行start-balancer.sh 进行数据负载均衡

启动单个特定后台进程
./start-dfs.sh
./start-mapred.sh

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值