hadoop分布式安装

本文详细介绍了如何在Linux环境下安装并配置Hadoop,包括安装JDK、修改IP、关闭防火墙、修改主机名、配置SSH、安装Hadoop、启动服务等步骤,并演示了使用命令行管理目录和文件以及执行MapReduce任务的过程。

1.安装jdk
  (1)使用root登录
  (2)把windows下的jdk文件拖到虚拟机的桌面
  (3)打算安装到/home目录下, mv /root/Desktop/jdk-6u24-linux-i586.bin /home
  (4)授予执行权限 chmod 700 jdk-6u24-linux-i586.bin
  (5)解压缩 ./jdk-6u24-linux-i586.bin
  (6)重命名文件夹 mv jdk-6u24 jdk (这时jdk的完整路径是/home/jdk)
  (7)配置环境变量 vi /etc/profile
  (8) export JAVA_HOME=/home/jdk
      export PATH=.:$PATH:$JAVA_HOME/bin
      保存退出vi
  (9)为了让profile立即生效,source /etc/profile
  (10)检验是否成功 java -version    
2.修改ip、关闭防火墙
  (1)setup
  (2)选中firewall Configuration,关闭防火墙。使用命令service iptables status查看是否关闭了。
  (3)选中network configuration,选中Device...,再选中eth0,去掉DHCP,设置static ip和netmask。
  (4)重启网卡service network restart,查看ip设置是否生效ifconfig。
3.修改主机名称
(1)hostname  installTest
  (2)修改文件vi /etc/hosts,追加一行记录192.168.1.xxx installTest
  (3)使用命令hostname查看修改是否生效
4.配置ssh
(1)cd进入当前用户主目录
  (2)执行命令ssh-keygen -t rsa,不断回车即可
  (3)进入文件夹 cd .ssh
  (4)产生授权文件 cp id_rsa.pub authorized_keys
  (5)重启sshd服务 service sshd restart
  (6)访问目标主机 ssh installTest 第一次执行的时候,回答“yes”,进入目标主机,使用exit退出
  (7)第二次执行ssh installTest。如果没有出现问答提示,证明配置成功。
5.安装hadoop
  5.1配置环境变量
  (1)tar -zxvf hadoop-1.0.4.tar.gz
  (2)vi /etc/profile
  (3)export HADOOP_HOME=/home/hadoop
     export PATH=.:$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
  (4)source /etc/profile
  
  5.2改配置文件hadoop-env.sh
  export JAVA_HOME=/home/jdk
    export HADOOP_LOG_DIR=${HADOOP_HOME}/logs
  export HADOOP_PID_DIR=/home/hadoop/pids
  
  5.3改配置文件core-site.xml
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/tmp</value>
    </property>  
    <property>
        <name>fs.default.name</name>
        <value>hdfs://installTest:9000</value>
    </property>
    
  5.4改配置文件hdfs-site.xml
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    
  5.5改配置文件mapred-site.xml
    <property>
        <name>mapred.job.tracker</name>
        <value>installTest:9001</value>
    </property>
    
6.启动hadoop
  (1)格式化文件系统hadoop namenode -format
  (2)启动命令start-all.sh
  (3)执行jps,如果出现6行,证明启动正确。
  (4)如果启动失败,查看logs日志
  (5)使用浏览器查看 http://installTest:50070     htpp://installTest:50030
如果出现nameNode deprecated或则格式化时出现了hadoop deprecated则可以在/etc/profile文件的
最后加上这么一句话
  export HADOOP_HOME_WARN_SUPPRESS=1

7. 验证hadoop是否启动成功

使用jps命令会出现6个进程

[root@hadoopMast ~]# jps
7708 SecondaryNameNode
7769 JobTracker
7603 DataNode
7499 NameNode
7899 TaskTracker
8201 Jps

或则使用浏览器访问

http://ip:50030

http://ip:50070


8.使用命令行管理目录和文件
  创建文件夹 hadoop fs -mkdir /input
  删除文件夹 hadoop fs -rmr /input
  上传文件   hadoop fs -put /home/install.log /input
  下载文件   hadoop fs -get /input/install.log .
  查看文件   hadoop fs -cat /input/install.log
  
9.执行mapreduce任务
  (1)计算pi值 hadoop jar xxx.jar pi 10 10
  (2)单词计数 hadoop jar xxx.jar wordcount /input /output
提供了基于BP(Back Propagation)神经网络结合PID(比例-积分-微分)控制策略的Simulink仿真模型。该模型旨在实现对杨艺所著论文《基于S函数的BP神经网络PID控制器及Simulink仿真》中的理论进行实践验证。在Matlab 2016b环境下开发,经过测试,确保能够正常运行,适合学习和研究神经网络在控制系统中的应用。 特点 集成BP神经网络:模型中集成了BP神经网络用于提升PID控制器的性能,使之能更好地适应复杂控制环境。 PID控制优化:利用神经网络的自学习能力,对传统的PID控制算法进行了智能调整,提高控制精度和稳定性。 S函数应用:展示了如何在Simulink中通过S函数嵌入MATLAB代码,实现BP神经网络的定制化逻辑。 兼容性说明:虽然开发于Matlab 2016b,但理论上兼容后续版本,可能会需要调整少量配置以适配不同版本的Matlab。 使用指南 环境要求:确保你的电脑上安装有Matlab 2016b或更高版本。 模型加载: 下载本仓库到本地。 在Matlab中打开.slx文件。 运行仿真: 调整模型参数前,请先熟悉各模块功能和输入输出设置。 运行整个模型,观察控制效果。 参数调整: 用户可以自由调节神经网络的层数、节点数以及PID控制器的参数,探索不同的控制性能。 学习和修改: 通过阅读模型中的注释和查阅相关文献,加深对BP神经网络与PID控制结合的理解。 如需修改S函数内的MATLAB代码,建议有一定的MATLAB编程基础。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值