spark-0.8.1安装——hadoop-2.2.0 x64

本文介绍如何从源码编译Hadoop-2.2.0,并详细配置了一个包含多个节点的Hadoop集群。具体步骤包括安装必要的工具、编译源码、配置核心文件等。

Hadoop-2.2.0 x64编译

1. hadoop源码hadoop-2.2.0-src.tar.gz下载并解压


2. 安装必要工具:yum install maven ncurses-devel openssl-devel cmake

3. 编译:

  3.1 cd hadoop-2.2.0-src

  3.2 mvn package -Pdist,native -DskipTests -Dtar

生成的发布包为hadoop-dist/target/hadoop-2.2.0.tar.gz

hadoop-2.2.0 集群配置

1. 解压前面编译的发布包hadoop-2.2.0.tar.gz,以下操作均在master机器Fedora01上操作

  tar -zxvf hadoop-2.2.0.tar.gz -C /usr/local

  ln -snf hadoop-2.2.0 hadoop2

  cd hadoop2/etc/hadoop

2. 配置以下几个文件,参考http://blog.youkuaiyun.com/licongcong_0224/article/details/12972889

  2.1 slaves
Fedora01
Fedora02
Fedora03
Fedora04
  2.2 core-site.xml
<!-- Put site-specific property overrides in this file. -->

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://Fedora01:9000</value>
    </property>
    <property>
        <name>io.file.buffer.size</name>
        <value>131072</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/data/hadoop2/temp</value>
        <description>A base for other temporary directories.</description>
    </property>
    <property>
        <name>hadoop.proxyuser.hduser.hosts</name>
        <value>*</value>
    </property>
    <property>
        <name>hadoop.proxyuser.hduser.groups</name>
        <value>*</value>
    </property>
</configuration>
  2.3 hdfs-site.xml
<!-- Put site-specific property overrides in this file. -->

<configuration>
	<property>
		<name>dfs.namenode.secondary.http-address</name>
		<value>Fedora01:9001</value>
	</property>
	<property>
		<name>dfs.namenode.name.dir</name>
		<value>/data/hadoop2/dfs/name</value>
	</property>
	<property>
		<name>dfs.datanode.data.dir</name>
		<value>/data/hadoop2/dfs/data</value>
	</property>
	<property>
		<name>dfs.replication</name>
		<value>3</value>
	</property>
	<property>
		<name>dfs.webhdfs.enabled</name>
		<value>true</value>
	</property>
</configuration>
  2.4 mapred-site.xml

 cp mapred-site.xml.template mapred-site.xml

<!-- Put site-specific property overrides in this file. -->

<configuration>
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
	<property>
		<name>mapreduce.jobhistory.address</name>
		<value>Fedora01:10020</value>
	</property>
	<property>
		<name>mapreduce.jobhistory.webapp.address</name>
		<value>Fedora01:19888</value>
	</property>
</configuration>
  2.5 yarn-site.xml
<configuration>
	<!-- Site specific YARN configuration properties -->
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
	<property>
		<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
		<value>org.apache.hadoop.mapred.ShuffleHandler</value>
	</property>
	<property>
		<name>yarn.resourcemanager.address</name>
		<value>Fedora01:8032</value>
	</property>
	<property>
		<name>yarn.resourcemanager.scheduler.address</name>
		<value>Fedora01:8030</value>
	</property>
	<property>
		<name>yarn.resourcemanager.resource-tracker.address</name>
		<value>Fedora01:8031</value>
	</property>
	<property>
		<name>yarn.resourcemanager.admin.address</name>
		<value>Fedora01:8033</value>
	</property>
	<property>
		<name>yarn.resourcemanager.webapp.address</name>
		<value>Fedora01:8080</value>
	</property> 
</configuration>
3. 环境变量配置,同步到其他机器

  3.1 增加下面两行到~/.bashrc,并source ~/.bashrc

export HADOOP_HOME="/usr/local/hadoop2"
export PATH="$HADOOP_HOME/bin:$PATH"
  3.2 同步

cd /usr/local

~/sync-cluster.sh hadoop2 hadoop-2.2.0 ~/.bashrc

4. 启动集群

cd /usr/local/hadoop2

./bin/hdfs namenode -format

./sbin/start-dfs.sh

jps #Fedora01上应该看到4个进程DataNode  NameNode  Jps  SecondaryNameNode  其他机器应该看到2个进程DataNode  Jps

./sbin/start-yarn.sh

jps #Fedora01上应该看到6个进程DataNode  NameNode  Jps  SecondaryNameNode  ResourceManager  NodeManager 其他机器应该看到3个进程DataNode  Jps NodeManager

5. 配置selinux和firewalld

  5.1 setenfore 0

  5.2 编辑/etc/selinux/conf文件,设置SELINUX=disabled

  5.3 systemctl stop firewalld.service; systemctl disable firewalld.service 这里很坑人的是iptables在Fedora20里已经不用了,默认就是禁止了的,而改用了firewalld。

5. 测试,无错误

[root@Fedora01 ~]# cd

[root@Fedora01 ~]# hadoop fs -mkdir -p /data/test
[root@Fedora01 ~]# hadoop fs -put sync-cluster.sh /data/test
[root@Fedora01 ~]# hadoop fs -ls /data/test
Found 1 items

-rw-r--r--   3 root supergroup        763 2014-02-07 21:42 /data/test/sync-cluster.sh

监控页面,这里为了方便在主机Fedora上的/etc/hosts文件配置了Fedora01与IP的对应关系,如果没配置,把Fedora01改为对应的IP即可


采用PyQt5框架与Python编程语言构建图书信息管理平台 本项目基于Python编程环境,结合PyQt5图形界面开发库,设计实现了一套完整的图书信息管理解决方案。该系统主要面向图书馆、书店等机构的日常运营需求,通过模块化设计实现了图书信息的标准化管理流程。 系统架构采用典型的三层设计模式,包含数据存储层、业务逻辑层和用户界面层。数据持久化方案支持SQLite轻量级数据库与MySQL企业级数据库的双重配置选项,通过统一的数据库操作接口实现数据存取隔离。在数据建模方面,设计了包含图书基本信息、读者档案、借阅记录等核心数据实体,各实体间通过主外键约束建立关联关系。 核心功能模块包含六大子系统: 1. 图书编目管理:支持国际标准书号、中国图书馆分类法等专业元数据的规范化著录,提供批量导入与单条录入两种数据采集方式 2. 库存动态监控:实时追踪在架数量、借出状态、预约队列等流通指标,设置库存预警阈值自动提醒补货 3. 读者服务管理:建立完整的读者信用评价体系,记录借阅历史与违规行为,实施差异化借阅权限管理 4. 流通业务处理:涵盖借书登记、归还处理、续借申请、逾期计算等标准业务流程,支持射频识别技术设备集成 5. 统计报表生成:按日/月/年周期自动生成流通统计、热门图书排行、读者活跃度等多维度分析图表 6. 系统维护配置:提供用户权限分级管理、数据备份恢复、操作日志审计等管理功能 在技术实现层面,界面设计遵循Material Design设计规范,采用QSS样式表实现视觉定制化。通过信号槽机制实现前后端数据双向绑定,运用多线程处理技术保障界面响应流畅度。数据验证机制包含前端格式校验与后端业务规则双重保障,关键操作均设有二次确认流程。 该系统适用于中小型图书管理场景,通过可扩展的插件架构支持功能模块的灵活组合。开发过程中特别注重代码的可维护性,采用面向对象编程范式实现高内聚低耦合的组件设计,为后续功能迭代奠定技术基础。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值