hadoop完全分布式配置

本文详细介绍如何在三台CentOS机器上部署Hadoop完全分布式模式,包括环境搭建、配置文件详解及运行测试步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

安装Hadoop完全分布式模式 (2012-03-27 10:06)
标签:   70   分布式   initial   normal   color 


Hadoop完全分布式模式

目录   [隐藏]
实验环境
  1. 系统 : centos 5.6
  2. JDK  : jdk-6u26-linux-i586-rpm.bin
  3. 账号 : hadoop
  4. 目录 : /usr/local/hadoop
  5. 主机名 :master slave1 slave2
实验目的

组建三台机器的群集

  • master: 部署namecode,JobTracker,DataNode,TaskTracker
  • slave1: 部署JobTracker,DataNode,TaskTracker
  • slave2: 部署JobTracker,DataNode,TaskTracker

其实这个不是最好的组建方法。实验为了更好的测试多节点而这样设置。

安装
  • 请确保每台机器都安装了sun jdk 将hadoop安装在相同的目录(/usr/local/hadoop)。
  • 请确保hadoop/conf/hadoop-env.sh 中JAVA_HOME=/usr/java/jdk1.6.0_26 设置并且正确。
  • 每台机器创建hadoop账户。
#useradd hadoop #passwd hadoop
  • 确保master能无密码登录。
$ssh-keygent -t dsa (我将密码设置为空方便测试。正常环境请安装keychain, keychain安装 ) $cd .ssh $cat cat id_rsa.pub > authorized_keys $chmod 600 authorized_keys (将权限设置为600否者ssh将不读取公钥信息)
    • 分发public key
$ssh-copy-id slave1 $ssh-copy-id slave2 配置文件概述
  • NameNode : core-site.xml
  • JobTracker : mapred-site.xml
  • DataNode : hdfs-site.xml
  • master : masters
  • slave : slaves
配置
  • 编辑namenode的配置文件
$vi core-site.xml <configuration> <property> <name>fs.default.name</name> <value>hdfs://192.168.60.149:9000/</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/hadooptmp</value> </property> </configuration>
  • 编辑JobTracker的配置
$vi mapred-site.xml <configuration> <property> <name>mapred.job.tracker</name> <value>192.168.60.149:9001</value> </property> <property> <name>mapred.local.dir</name> <value>/usr/local/hadoop/mapred/local</value> </property> <property> <name>mapred.system.dir</name> <value>/tmp/hadoop/mapred/system</value> </property> </configuration>
  • 编辑DataNode配置
$vi hdfs-site.xml <configuration> <property> <name>dfs.name.dir</name> <value>/usr/local/hadoop/hdfs/name</value> </property> <property> <name>dfs.data.dir</name> <value>/usr/local/hadoop/hdfs/data</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> </configuration>
  • 修改slave1,slave2的配置
    • 修改slave1,slave2的JobTracker的配置
$vi mapred-site.xml <configuration> <property> <name>mapred.job.tracker</name> <value>192.168.60.149:9001</value> </property> <property> <name>mapred.local.dir</name> <value>/usr/local/hadoop/mapred/local</value> </property> <property> <name>mapred.system.dir</name> <value>/tmp/hadoop/mapred/system</value> </property> </configuration>
    • 修改slave1,slave2的DataNode配置
$vi hdfs-site.xml <configuration> <property> <name>dfs.name.dir</name> <value>/usr/local/hadoop/hdfs/name</value> </property> <property> <name>dfs.data.dir</name> <value>/usr/local/hadoop/hdfs/data</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> </configuration>
  • 设置master
$vi masters master
  • 设置slave
$vi slaves master slave1 slave2 运行
  • 格式化namenode
$$bin/hadoop namenode -format
  • 启动所有进程
$/usr/local/hadoop/bin/start-all.sh starting namenode, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-namenode-master.out master: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-datanode-master.out slave2: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-datanode-slave2.out slave1: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-datanode-slave1.out master: starting secondarynamenode, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-secondarynamenode-master.out starting jobtracker, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-jobtracker-master.out slave1: starting tasktracker, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-tasktracker-slave1.out slave2: starting tasktracker, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-tasktracker-slave2.out master: starting tasktracker, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-tasktracker-master.out 测试
  • 分布式文件系统测试
    • 查看 http://master:50030 nodes里面是3证明三个节点正常接入
    • 创建测试pustest文件夹用于分布式文件系统测试
$bin/hadoop dfs -mkdir pustest
    • 将conf/hadoop-env.sh放到pushtest目录 用于测试。
$bin/hadoop dfs -put conf/hadoop-env.sh pushtest
    • http://master:50070 Browse the filesystem 发现跳转slave1 or slave2 证明分布式文件系统正常。
  • hadoop默认开放web状态展示访问地址为
http://localhost:50070;   http://localhost:50030;
  • 简单的daemo
hadoop自带一些简单的实例。测试下单词统计功能。 $bin/hadoop jar hadoop-examples-0.20.203.0.jar wordcount pushtest testoutput 运行后将可以在web界面看见job的状态。和完成的状态。 具体单词数量等统计结果要查看 $bin/hadoop fs -ls drwxr-xr-x - hadoop supergroup 0 2011-07-11 11:13 /user/hadoop/test drwxr-xr-x - hadoop supergroup 0 2011-07-11 11:15 /user/hadoot/testoutput $bin/hadoop fs -ls testoutput Found 3 items -rw-r--r-- 1 hadoop supergroup 0 2011-07-11 16:31 /user/hadoop/shanyang1/_SUCCESS drwxr-xr-x - hadoop supergroup 0 2011-07-11 16:30 /user/hadoop/shanyang1/_logs -rw-r--r-- 1 hadoop supergroup 32897 2011-07-11 16:31 /user/hadoop/shanyang1/part-r-00000 $bin/hadoop fs -cat /user/hadoop/shanyang1/part-r-00000 将可以看到详细的统计信息
 
 

资源下载链接为: https://pan.quark.cn/s/d9ef5828b597 在本文中,我们将探讨如何通过 Vue.js 实现一个带有动画效果的“回到顶部”功能。Vue.js 是一款用于构建用户界面的流行 JavaScript 框架,其组件化和响应式设计让实现这种交互功能变得十分便捷。 首先,我们来分析 HTML 代码。在这个示例中,存在一个 ID 为 back-to-top 的 div 元素,其中包含两个 span 标签,分别显示“回到”和“顶部”文字。该 div 元素绑定了 Vue.js 的 @click 事件处理器 backToTop,用于处理点击事件,同时还绑定了 v-show 指令来控制按钮的显示与隐藏。v-cloak 指令的作用是在 Vue 实例渲染完成之前隐藏该元素,避免出现闪烁现象。 CSS 部分(backTop.css)主要负责样式设计。它首先清除了一些默认的边距和填充,对 html 和 body 进行了全屏布局,并设置了相对定位。.back-to-top 类则定义了“回到顶部”按钮的样式,包括其位置、圆角、阴影、填充以及悬停时背景颜色的变化。此外,与 v-cloak 相关的 CSS 确保在 Vue 实例加载过程中隐藏该元素。每个 .page 类代表一个页面,每个页面的高度设置为 400px,用于模拟多页面的滚动效果。 接下来是 JavaScript 部分(backTop.js)。在这里,我们创建了一个 Vue 实例。实例的 el 属性指定 Vue 将挂载到的 DOM 元素(#back-to-top)。data 对象中包含三个属性:backTopShow 用于控制按钮的显示状态;backTopAllow 用于防止用户快速连续点击;backSeconds 定义了回到顶部所需的时间;showPx 则规定了滚动多少像素后显示“回到顶部”按钮。 在 V
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值