hadoop(1.2) 分布式部署

本文详细介绍了在CentOS环境下部署Hadoop的过程,包括安装JDK、配置SSH免密码登录、下载并解压Hadoop安装包、格式化名称节点、启动Hadoop以及后续的检查步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 部署环境

系统:  CentOS 6.3

需要安装jdk.

JDK的RPM下载地址: http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html

hadoop手册地址: http://hadoop.apache.org/docs/r1.2.1/index.html

关闭iptables和selinux

1
2
3
4
/etc/init .d /iptables  stop
chkconfig iptables off
sed  -i  's/SELINUX=enforcing/SELINUX=disabled/'  /etc/selinux/config
setenforce 0

 

2. SSH配置

1
2
3
4
5
6
7
8
9
useradd  hadoop
echo  123456 |  passwd  --stdin hadoop
su  - hadoop
 
ssh -keygen -t rsa                                       #生成密钥对
ssh -copy- id  user@ip                                     #将ssh公钥copy到指定的主机
 
cd  . ssh  #每台服务器本机也需要配置ssh免密码登录
cat  id_rsa.pub  >> authorized_keys

 

3. 部署hadoop

官网: http://hadoop.apache.org/

下载: http://mirror.bit.edu.cn/apache/hadoop/common/

1
2
wget http: //mirrors .hust.edu.cn /apache/hadoop/common/hadoop-1 .2.1 /hadoop-1 .2.1. tar .gz
tar  xf hadoop-1.2.1. tar .gz

 

修改配置

     1.    conf/hadoop-env.sh

这是一个脚本文件,主要是用来初始化hadoop环境的.

修改JAVA_HOME变量, 告诉在那里可以找到java ,  这里安装的是oracle jre的rpm,如下配置..

1
2
vi  hadoop- env .sh
export  JAVA_HOME= /usr/java/jdk1 .7.0_67

 

    2.    conf/core-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
<configuration>
   <property>
     <name>fs.default.name< /name >                       #指定名称节点在哪里...
     <value>hdfs: //hadoop1 :9000< /value >                 #名称节点是hadoop1, 也可以写成ip地址.
   < /property >
 
   <property> 
     <name>hadoop.tmp. dir < /name >                        #指定hadoop的临时文件目录,如果不指定会使用/tmp
     <value> /home/hadoop/hadoop-1 .2.1 /tmp < /value >       #要记得创建目录 mkdir /home/hadoop-1.2.1/tmp
   < /property >
 
   <property>
    <name>fs.trash.interval< /name >                      #指定回收站的清空间隔
    <value>21600< /value >                                #单位是分钟
    <description>
      Number of minutes between trashcheckpoints. If zero, the trash feature is disabled
    < /description >
   < /property >
< /configuration >

 

     3.  conf/hdfs-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
<configuration>
   <property>
     <name>dfs.replication< /name >                           #定义hdfs的复制因子,保存多少副本数
     <value>2< /value >                                       #如果是1的话,不复制..
   < /property >
 
   <property>
     <name>dfs.block.size< /name >
     <value>67108864< /value >
     <description>The default block size  for  new files.< /description >
   < /property >
< /configuration >

 

    4. conf/mapred-site.xml
1
2
3
4
5
6
<configuration>
   <property>
     <name>mapred.job.tracker< /name >                        #指定jobtracker的地址和监听端口
     <value>hadoop1:9001< /value >
   < /property >
< /configuration >

 

     5.  conf/masters
1
hadoop1                                                #在文件中指定充当master的主机名称

 

     6.  conf/slaves
1
2
hadoop2                                                #在文件中指定充当salve的主机名称
hadoop3

 

    7.  修改hosts

1
2
3
4
vi  /etc/hosts
192.168.188.210 hadoop1
192.168.188.220 hadoop2
192.168.188.230 hadoop3

 

    8. 将hadoop目录scp到其他的设备上

所有的hadoop的内容都是一样的,直接scp -r过去就可以了

1
2
cd  /home/hadoop
scp  -r hadoop-1.2.1 ip: /home/hadoop

 

    9. 格式化名称节点
1
2
3
4
5
cd  hadoop-1.2.1
. /bin/hadoop  namenode - format
 
如果最后面的信息有下面这样的表示成功...
14 /08/30  11:37:05 INFO common.Storage: Storage directory  /home/hadoop/hadoop-1 .2.1 /tmp/dfs/name  has been successfully formatted.

 

4.  启动hadoop

1
. /bin/start-all .sh

 

如果第一次启动不成功,可以运行jps命令查看进程

如果安装的是oracle jdk 的rpm

/usr/java/jdk1.7.0_67/bin/jps  如果有hadoop的进程,可以运行kill命令将其杀掉,然后在启动..

启动后的日志在logs目录中

jobtracker  namenode  secondarynamenode 日志默认都在master上...

tasktracker  datanode    在所有slave的logs中.

 

5.  启动后的检查

通过jps命令查看,    java的进程统计列表

1
/usr/java/jdk1 .7.0_67 /bin/jps

 

 

总结:

1. 配置hosts文件

2. 建立hadoop运行账号

3. 配置ssh免密码登录

4. 下载并解压hadoop安装包

5. 配置namenode, 修改site文件

6. 配置hadoop-env.sh

7. 配置masters和slaves文件

8. 向各节点复制hadoop

9. 格式化namenode

10. 启动hadoop

11. 用jps检验各后台进程是否成功启动

1. 用户与身体信息管理模块 用户信息管理: 注册登录:支持手机号 / 邮箱注册,密码加密存储,提供第三方快捷登录(模拟) 个人资料:记录基本信息(姓名、年龄、性别、身高、体重、职业) 健康目标:用户设置目标(如 “减重 5kg”“增肌”“维持健康”)及期望周期 身体状态跟踪: 体重记录:定期录入体重数据,生成体重变化曲线(折线图) 身体指标:记录 BMI(自动计算)、体脂率(可选)、基础代谢率(根据身高体重估算) 健康状况:用户可填写特殊情况(如糖尿病、过敏食物、素食偏好),系统据此调整推荐 2. 膳食记录与食物数据库模块 食物数据库: 基础信息:包含常见食物(如米饭、鸡蛋、牛肉)的名称、类别(主食 / 肉类 / 蔬菜等)、每份重量 营养成分:记录每 100g 食物的热量(kcal)、蛋白质、脂肪、碳水化合物、维生素、矿物质含量 数据库维护:管理员可添加新食物、更新营养数据,支持按名称 / 类别检索 膳食记录功能: 快速记录:用户选择食物、输入食用量(克 / 份),系统自动计算摄入的营养成分 餐次分类:按早餐 / 午餐 / 晚餐 / 加餐分类记录,支持上传餐食照片(可选) 批量操作:提供常见套餐模板(如 “三明治 + 牛奶”),一键添加到记录 历史记录:按日期查看过往膳食记录,支持编辑 / 删除错误记录 3. 营养分析模块 每日营养摄入分析: 核心指标计算:统计当日摄入的总热量、蛋白质 / 脂肪 / 碳水化合物占比(按每日推荐量对比) 微量营养素分析:检查维生素(如维生素 C、钙、铁)的摄入是否达标 平衡评估:生成 “营养平衡度” 评分(0-100 分),指出摄入过剩或不足的营养素 趋势分析: 周 / 月营养趋势:用折线图展示近 7 天 / 30 天的热量、三大营养素摄入变化 对比分析:将实际摄入与推荐量对比(如 “蛋白质摄入仅达到推荐量的 70%”) 目标达成率:针对健
1. 用户管理模块 用户注册与认证: 注册:用户填写身份信息(姓名、身份证号、手机号)、设置登录密码(需符合复杂度要求),系统生成唯一客户号 登录:支持账号(客户号 / 手机号)+ 密码登录,提供验证码登录、忘记密码(通过手机验证码重置)功能 身份验证:注册后需完成实名认证(模拟上传身份证照片,系统标记认证状态) 个人信息管理: 基本信息:查看 / 修改联系地址、紧急联系人、邮箱等非核心信息(身份证号等关键信息不可修改) 安全设置:修改登录密码、设置交易密码(用于转账等敏感操作)、开启 / 关闭登录提醒 权限控制:普通用户仅能操作本人账户;管理员可管理用户信息、查看系统统计数据 2. 账户与资金管理模块 账户管理: 账户创建:用户可开通储蓄卡账户(默认 1 个主账户,支持最多 3 个子账户,如 “日常消费账户”“储蓄账户”) 账户查询:查看各账户余额、开户日期、状态(正常 / 冻结)、交易限额 账户操作:挂失 / 解挂账户、申请注销账户(需余额为 0) 资金操作: 转账汇款:支持同行转账(输入对方账户号 / 手机号),需验证交易密码,可添加常用收款人 存款 / 取款:模拟存款(输入金额增加余额)、取款(输入金额减少余额,需不超过可用余额) 交易记录:按时间、类型(转入 / 转出 / 存款 / 取款)查询明细,显示交易时间、金额、对方账户(脱敏显示)、交易状态 3. 账单与支付模块 账单管理: 月度账单:自动生成每月收支明细,统计总收入、总支出、余额变动 账单查询:按月份、交易类型筛选账单,支持导出为 Excel 格式 还款提醒:若有贷款(简化版可模拟),系统在还款日 3 天前发送提醒 快捷支付: 绑定支付方式:添加银行卡(系统内账户)作为支付渠道 模拟消费:支持输入商户名称和金额,完成支付(从账户余额扣减) 支付记录:保存所有消费记录,包含商户、时间、金额、支付状态 4.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值