hadoop-0.20.205.0部署手册

本文详细介绍了如何在四台安装Red Hat Linux的PC上搭建Hadoop集群,包括安装JDK、配置SSH无密码登录、安装配置Hadoop、运行Hadoop并验证集群状态。
硬件环境为四台安装Red Hat Linux的PC,IP和主机名分别为:

10.21.4.112 namenode112
10.21.14.54 datanode054
10.21.14.62 datanode062
10.21.14.111 datanode111

将以上内容分别放入四台机器的/etc/hosts文件中

在四台机器上分别创建用户hadoop,密码为:hadoop

1、安装JDK

从sun官网下载1.6的jdk安装,本人的安装路径为:/home/hadoop/program/java。配置环境变量,在/home/.bash_profile的末尾加入一下内容:

JAVA_HOME=/home/hadoop/program/java
CLASSPATH=.:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME CLASSPATH PATH

2、配置ssh无密码登录

在namenode112上执行以下命令:

ssh-keygen

然后按照提示输入必要的信息,当要求输入密码的时候留空。

执行cp命令拷贝上一步生成的密钥对中的公钥到/home/hadoop/.ssh目录底下。

cp /home/hadoop/.ssh/id_rsa.pub/home/hadoop/.ssh/authorized_keys

执行scp命令将authorized_keys文件分别拷贝到其他datanode节点

scp /home/hadoop/.ssh/authorized_keys hadoop@datanode111:/home/hadoop/.ssh/authorized_keys

scp /home/hadoop/.ssh/authorized_keys hadoop@datanode062:/home/hadoop/.ssh/authorized_keys

scp /home/hadoop/.ssh/authorized_keys hadoop@datanode054:/home/hadoop/.ssh/authorized_keys

在namenode112机器使用以下命令分别查看是否可以无密码登录其他三台机器

ssh datanode111
ssh datanode054
ssh datanode062

如果不成功,请检查原因

3、安装配置hadoop

从apache网站下载hadoop的压缩包(hadoop-0.20.205.0.tar.gz),执行一下命令解压

tar -zxvf hadoop-0.20.205.0.tar.gz

在四台机器上分别创建数据文件存放文件夹,这里是/home/hadoop/hadoop-data,执行chmod修改该文件夹的权限为755,注意,这里貌似只能是755,权限过大或过小都不能启动datanode节点。

mkdir /home/hadoop/hadoop-data

chmod 755 /home/hadoop/hadoop-data

配置hadoop-env.sh,在其中加入JAVA_HOME环境变量的配置,内容如下:

export JAVA_HOME=/home/hadoop/program/java

配置conf/core-site.xml,内容如下:

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl"href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://namenode112:9000</value>
</property>
</configuration>


配置conf/hdfs-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl"href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
<name>dfs.replication</name>
<value>2</value><!--数据备份数量-->
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/program/hadoop-data</value><!--数据文件存放地址-->
</property>
</configuration>



配置conf/mapred-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl"href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
<name>mapred.job.tracker</name>
<value>namdenode112:9001</value>
</property>
</configuration>


配置masters,在其中加入namenode节点的主机名

namenode112

配置slaves,在其中加入datanode节点的主机名

datanode111

datanode054

datanode062



将hadoop整个文件夹通过scp命令分别拷贝到其他几个datanode的相同路径下。

4、运行hadoop

转到hadoop安装路径的bin目录下,运行以下命令格式化hadoop的文件系统

./hadoop namenode -format



启动hadoop



./start-all.sh



打开浏览器,输入namenode节点的IP和50070端口查看运行状态



http://10.21.4.112:50070/dfshealth.jsp



访问结果如下:

NameNode'namenode112.hadoop:9000'


Started:


Wed Dec 21 21:55:47 CST 2011


Version:


0.20.205.0, r1179940

Compiled:

Fri Oct 7 06:20:32 UTC 2011 by hortonfo

Upgrades:

There are no upgrades in progress.

Browse the filesystem
Namenode Logs


--------------------------------------------------------------------------------


Cluster Summary

1files and directories, 0 blocks = 1 total. Heap Size is 57.38 MB / 888.94 MB(6%)








Configured Capacity


:


549.29 GB





DFS Used


:


84 KB





Non DFS Used


:


39.81 GB





DFS Remaining


:


509.47 GB





DFS Used%


:


0 %





DFS Remaining%


:


92.75 %





Live Nodes


:


3





Dead Nodes


:


0





Decommissioning

Nodes


:


0





Number of Under-Replicated Blocks


:


0





--------------------------------------------------------------------------------


NameNode Storage:









Storage Directory


Type


State


/tmp/hadoop-hadoop/dfs/name


IMAGE_AND_EDITS


Active

--------------------------------------------------------------------------------


Thisis Apache Hadoop release 0.20.205.0
内容概要:本文详细介绍了一个基于Java和Vue的联邦学习隐私保护推荐系统的设计与实现。系统采用联邦学习架构,使用户数据在本地完成模型训练,仅上传加密后的模型参数或梯度,通过中心服务器进行联邦平均聚合,从而实现数据隐私保护与协同建模的双重目标。项目涵盖完整的系统架构设计,包括本地模型训练、中心参数聚合、安全通信、前后端解耦、推荐算法插件化等模块,并结合差分隐私与同态加密等技术强化安全性。同时,系统通过Vue前端实现用户行为采集与个性化推荐展示,Java后端支撑高并发服务与日志处理,形成“本地训练—参数上传—全局聚合—模型下发—个性化微调”的完整闭环。文中还提供了关键模块的代码示例,如特征提取、模型聚合、加密上传等,增强了项目的可实施性与工程参考价值。 适合人群:具备一定Java和Vue开发基础,熟悉Spring Boot、RESTful API、分布式系统或机器学习相关技术,从事推荐系统、隐私计算或全栈开发方向的研发人员。 使用场景及目标:①学习联邦学习在推荐系统中的工程落地方法;②掌握隐私保护机制(如加密传输、差分隐私)与模型聚合技术的集成;③构建高安全、可扩展的分布式推荐系统原型;④实现前后端协同的个性化推荐闭环系统。 阅读建议:建议结合代码示例深入理解联邦学习流程,重点关注本地训练与全局聚合的协同逻辑,同时可基于项目架构进行算法替换与功能扩展,适用于科研验证与工业级系统原型开发。
源码来自:https://pan.quark.cn/s/a4b39357ea24 遗传算法 - 简书 遗传算法的理论是根据达尔文进化论而设计出来的算法: 人类是朝着好的方向(最优解)进化,进化过程中,会自动选择优良基因,淘汰劣等基因。 遗传算法(英语:genetic algorithm (GA) )是计算数学中用于解决最佳化的搜索算法,是进化算法的一种。 进化算法最初是借鉴了进化生物学中的一些现象而发展起来的,这些现象包括遗传、突变、自然选择、杂交等。 搜索算法的共同特征为: 首先组成一组候选解 依据某些适应性条件测算这些候选解的适应度 根据适应度保留某些候选解,放弃其他候选解 对保留的候选解进行某些操作,生成新的候选解 遗传算法流程 遗传算法的一般步骤 my_fitness函数 评估每条染色体所对应个体的适应度 升序排列适应度评估值,选出 前 parent_number 个 个体作为 待选 parent 种群(适应度函数的值越小越好) 从 待选 parent 种群 中随机选择 2 个个体作为父方和母方。 抽取父母双方的染色体,进行交叉,产生 2 个子代。 (交叉概率) 对子代(parent + 生成的 child)的染色体进行变异。 (变异概率) 重复3,4,5步骤,直到新种群(parentnumber + childnumber)的产生。 循环以上步骤直至找到满意的解。 名词解释 交叉概率:两个个体进行交配的概率。 例如,交配概率为0.8,则80%的“夫妻”会生育后代。 变异概率:所有的基因中发生变异的占总体的比例。 GA函数 适应度函数 适应度函数由解决的问题决定。 举一个平方和的例子。 简单的平方和问题 求函数的最小值,其中每个变量的取值区间都是 [-1, ...
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值