快速搭建hadoop环境

本文详细介绍如何搭建一个由三台Linux机器组成的Hadoop集群,包括环境配置、用户设置、SSH免密登录、hosts文件配置、时间同步及核心配置文件的修改等步骤。

1,准备三台linux机器,配置好Java环境,最好JAVA_HOME的值都配成一样的。 

2,在三台机器上分别解压Hadoop安装包,解压路径也需要一样。


vi /etc/profile 

export JAVA_HOME=/opt/jdk1.7.0_55 

export HADOOP_HOME=/usr/local/hadoop-2.5.1


export CLASSPATH=.:$JAVA_HOME/lib 

export PATH=$PATH:$JAVA_HOME/jre/bin:$HADOOP_HOME/bin


source /etc/profile

2,给三台机器建Hadoop的用户

sudo addgroup hadoop 

sudo adduser --ingroup hadoop hadoop

ls -l /etc/sudoers
chmod u+w /etc/sudoers 
add ---> hadoop ALL=(ALL) ALL  
chmod u-w /etc/sudoers  
sudo chown -R hadoop:hadoop hadoop2.5.1


3,让三台机器可以在Hadoop用户下免密SSH互通

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

4, vi /etc/hosts 添加三台机器的Host Name和IP

192.168.0.2 master

192.168.0.3 slave1

192.168.0.4 slave2


5,同步三台机器的时间

crontab -e */5 * * * * /usr/sbin/ntpdate ntp.api.bz &> /dev/null


6,修改Hadoop的配置文件

=======================================================

slave

192.168.0.3

192.168.0.4

==================================================

core-site.xml

<configuration> 
<!-- file system properties -->
<property>
<name>fs.default.name</name>
<value>hdfs://123.57.46.179:9000</value>
</property>


<!--- global properties -->
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop-2.5.1/tmp</value>
</property>


</configuration>


====================================================

hdfs-site.xml

<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
</configuration>

=====================================================

mapred-site.xml

<configuration>
<property>
<name>mapred.job.tracker</name>
<value>123.57.46.179:9001</value>
</property>
</configuration>


===============================

hadoop namenode -format


start-all.sh


 ./start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [master]
master: starting namenode, logging to /usr/local/hadoop-2.5.1/logs/hadoop-hadoop-namenode-master.out
slave1: starting datanode, logging to /usr/local/hadoop-2.5.1/logs/hadoop-hadoop-datanode-slave1.out
slave2: starting datanode, logging to /usr/local/hadoop-2.5.1/logs/hadoop-hadoop-datanode-slave2.out
starting yarn daemons
starting resourcemanager, logging to /usr/local/hadoop-2.5.1/logs/yarn-hadoop-resourcemanager-master.out
slave1: starting nodemanager, logging to /usr/local/hadoop-2.5.1/logs/yarn-hadoop-nodemanager-slave1.out
slave2: starting nodemanager, logging to /usr/local/hadoop-2.5.1/logs/yarn-hadoop-nodemanager-slave2.out

验证启动如下:

JPS

hadoop dfsadmin -report


hadoop dfs -mkdir testIn
hadoop dfs -ls
hdfs://localhost:9000/user/hadoop/testIn
hadoop dfs -copyFromLocal /tmp/test.* tesIn


hadoop jar hadooptest.jar wordcount testIn testOut



光伏储能虚拟同步发电机VSG并网仿真模型(Similink仿真实现)内容概要:本文档介绍了光伏储能虚拟同步发电机(VSG)并网仿真模型的Simulink实现方法,重点在于通过建立光伏储能系统与虚拟同步发电机相结合的仿真模型,模拟其在并网过程中的动态响应与控制特性。该模型借鉴了同步发电机的惯性和阻尼特性,提升了新能源并网系统的频率和电压支撑能力,增强了系统的稳定性与可控性。文档还提及相关电力系统仿真技术的应用,包括逆变器控制、储能配置、并网稳定性分析等,并提供了完整的Simulink仿真文件及技术支持资源链接,便于科研人员复现与二次开发。; 适合人群:电气工程、自动化、能源系统等相关专业的研究生、科研人员及从事新能源并网技术开发的工程师。; 使用场景及目标:①用于研究光伏储能系统在弱电网条件下的并网稳定性问题;②掌握虚拟同步发电机(VSG)控制策略的设计与仿真方法;③支持高水平论文(如EI/SCI)的模型复现与创新研究;④为微电网、智能电网中的分布式能源接入提供技术参考。; 阅读建议:建议结合提供的Simulink模型文件与文档说明逐步操作,重点关注VSG控制模块的参数设置与动态响应分析,同时可延伸学习文中提及的MPPT、储能管理、谐波分析等相关技术,以提升综合仿真能力。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Pike_Jun

随缘结缘可种善根得福报

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值