hadoop 安装 分布式模式

本文详细介绍如何在三台服务器上搭建Hadoop集群,包括用户创建、SSH免密码登录配置、JDK环境变量设置、Hadoop软件安装及配置等关键步骤,并验证集群启动后的状态。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

创建用户

[root@clubserver1 ~]# useradd -d /home/hadoop2014 -m  hadoop2014 -s /bin/bash  -g hadoop2014 -G root

[root@clubserver2 ~]# useradd -d /home/hadoop2014 -m hadoop2014  -s /bin/bash  -g hadoop2014 -G root

[root@clubserver3 ~]# useradd -d /home/hadoop2014 -m hadoop2014  -s /bin/bash  -g hadoop2014 -G root

ssh免密码登陆

利用ssh-keygen –t rsa 命令配置hadoop2014用户在clubserver1、clubserver2、clubserver3之间的免密码登陆。

JDK配置

分别在每台机器操作

修改/etc/profile 加入

export JAVA_HOME="/usr/java/jdk1.6.0_25"

exportCLASSPATH=".:/usr/java/jdk1.6.0_25/lib:/usr/java/jdk1.6.0_25/jre/lib"

export HADOOP_HOME="/home/hadoop2014/hadoop-1.1.2"

export HADOOP_HOME_WARN_SUPPRESS=1

然后运行

[root@clubserver1 hadoop2014]# source /etc/profile

[root@clubserver2 hadoop2014]# source /etc/profile

[root@clubserver3 hadoop2014]# source /etc/profile

 

Hadoop 安装

1.  在clubserver1将文件copy到/home/hadoop2014并解压

2.  在clubserver1的/home/hadoop2014/hadoop-1.1.2/conf目录

Ø 编辑hadoop-env.sh

export JAVA_HOME=/usr/java/jdk1.6.0_25

Ø 编辑core-site.xml

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://clubserver1:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

  <value>/home/hadoop2014/hadooptmp</value>

</property>

</configuration>

Ø 配置hdfs-site.xml

<configuration>

 <property>

  <name>dfs.name.dir</name>

  <value>/home/hadoop2014/name</value>

 </property>

 <property>

  <name>dfs.data.dir</name>

  <value>/home/hadoop2014/data</value>

 </property>

 <property>

  <name>dfs.replication</name>

  <value>2</value>

 </property>

</configuration>

 

Ø 配置mapred-site.xml

      

<configuration>

  <property>

   <name>mapred.job.tracker</name>

   <value>clubserver1:9001</value>

 </property>

</configuration>

 

Ø 配置masters文件

clubserver1

Ø 配置slaves文件

clubserver2

clubserver3

3.  将文件copy至clubserver2和clubserver3节点

scp -r192.168.1.111:/home/hadoop2014/hadoop-1.1.2/ .

4.  namenode 格式化

hadoop namenode –format

5.  启动hadoop集群

start-all.sh

6 检查集群状态

   clubserver1下运行jps命令

2700 NameNode

2957 JobTracker

3581 Jps

2879 SecondaryNameNode

   clubserver2下运行jps命令

7275 Jps

6334 DataNode

6446 TaskTracker

   clubserver3下运行jps命令

     

6262 DataNode

6718 Jps

6339 TaskTracker

    发现namenode节点和辅助节点,以及2个数据节点已经启动

资源下载链接为: https://pan.quark.cn/s/f989b9092fc5 HttpServletRequestWrapper 是 Java Servlet API 中的一个工具类,位于 javax.servlet.http 包中,用于对 HttpServletRequest 对象进行封装,从而在 Web 应用中实现对 HTTP 请求的拦截、修改或增强等功能。通过继承该类并覆盖相关方法,开发者可以轻松地自定义请求处理逻辑,例如修改请求参数、添加请求头、记录日志等。 参数过滤:在请求到达处理器之前,可以对请求参数进行检查或修改,例如去除 URL 编码、过滤敏感信息或进行安全检查。 请求头操作:可以修改或添加请求头,比如设置自定义的 Content-Type 或添加认证信息。 请求属性扩展:在原始请求的基础上添加自定义属性,供后续处理使用。 日志记录:在处理请求前记录请求信息,如 URL、参数、请求头等,便于调试和监控。 跨域支持:通过添加 CORS 相关的响应头,允许来自不同源的请求。 HttpServletRequestWrapper 通过继承 HttpServletRequest 接口并重写其方法来实现功能。开发者可以在重写的方法中添加自定义逻辑,例如在获取参数时进行过滤,或在读取请求体时进行解密。当调用这些方法时,实际上是调用了包装器中的方法,从而实现了对原始请求的修改或增强。 以下是一个简单的示例,展示如何创建一个用于过滤请求参数的包装器: 在 doFilter 方法中,可以使用 CustomRequestWrapper 包装原始请求: 这样,每当调用 getParameterValues 方法时,都会先经过自定义的过滤逻辑。 HttpServletRequestWrapper 是 Java Web 开发中一个强大的工具,它提供了灵活的扩展性,允许开发者
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值