Hadoop分布式集群搭建

本文详细介绍了如何在三台虚拟机上部署Hadoop分布式集群,包括环境准备、JDK安装、SSH免密登录配置、Hadoop安装与配置、集群启动及验证等关键步骤。
Hadoop分布式集群搭建
1.环境准备
2.Hadoop集群安装配置
安装Hadoop
Hadoop集群配置
将Hadoop配置分发到别的服务器中
3.启动Hadoop集群
在NameNode服务器格式化
启动Haoop集群
查看进程
查看HDFS web监控
至此,Hadoop集群部署成功
Hadoop下载地址:https://archive.apache.org/dist/hadoop/common/
JDK下载地址:https://www.oracle.com/technetwo ... nloads-2133151.html

1.环境准备
Hadoop集群部署规划

ip:主机名        作用
192.168.210.100:a        NameNode、DataNode、ResourceManager、NodeManager、SecondaryNameNode
192.168.210.101:a1        DataNode、NodeManager
192.168.210.102:a2        DataNode、NodeManager
准备三台虚拟机。关闭防火墙,设置ip,设置主机名

#不同的Linux版本可能命令不一样
#查看防火墙状态
firewall-cmd --state
#关闭防火墙
service firewall stop
#设置防火墙开机不启动
systemctl disable firewalld.service

修改host文件,使三台虚拟机可以通过主机名的方式进行互相访问

vi /etc/hosts
#配置三台服务器的ip和主机名
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.210.100 a
192.168.210.101 a1
192.168.210.102 a2
将配置发送到其它主机
scp -r /etc/hosts root@a1:/etc/
scp -r /etc/hosts root@a2:/etc/
测试
ping a1
ping a2
分别在三台服务器上安装JDK
#下载jdk-8u121-linux-x64.gz,上传到/home/software/下
#解压安装包到/usr/local下
tar -zxvf jdk-8u121-linux-x64.gz -C /usr/local/
#修改解压后的目录名
mv jdk1.8.0-121 jdk1.8.0
#设置环境变量
vi /etc/profile
export JAVA_HOME=/usr/local/jdk1.8.0
export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/sbin
#生效配置文件
source /etc/profile
#测试
java -version
ssh免密登录
ssh-keygen -t rsa
ssh-copy-id a
ssh-copy-id a1
ssh-copy-id a2
#测试
ssh a
ssh a1
ssh a2
#访问服务器内主机都不需要密码
2.Hadoop集群安装配置
安装Hadoop
下载Hadoop安装包hadoop-2.8.5.tar.gz并上传至服务器

#解压安装包至/usr/local
tar -zxvf hadoop-2.8.5.tar.gz -C /usr/local
#配置Hadoop环境变量
vi /etc/profile
#添加
HADOOP_HOME=/usr/local/hadoop-2.8.5/
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
#生效配置文件
source /etc/profile
#测试(出现Hadoop的安装目录即为成功)
which hadoop
#在Hadoop中配置java的安装目录
#进入hadoop安装目录
cd /usr/local/hadoop-2.8.5/
vi ./etc/hadoop/hadoop-env.sh
#找到export JAVA_HOME=${JAVA_HOME},修改为java的安装目录
export JAVA_HOME=/usr/local/jdk1.8.0
#测试(出现Hadoop版本)
hadoop version
Hadoop集群配置
配置core-site.xml

vi ./etc/hadoop/core-site.xml
#在configuration中配置
<configuration>
    <!--配置HDFS文件系统的命名空间,总入口-->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://a:9000</value>
    </property>
    <!--操作HDFS的缓冲大小-->
    <property>
        <name>io.file.buffer.size</name>
        <value>4096</value>
    </property>
    <!--Hadoop的数据临时存储目录 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/bigdata/tmp</value>
    </property>
</configuration>
配置hdfs-site.xml

vi ./etc/hadoop/hdfs-site.xml
#在configuration中配置
<configuration>
        <!--副本数-->
        <property>
                <name>dfs.replication</name>
                <value>3</value>
        </property>
        <!--块大小-->
        <property>
                <name>dfs.block.size</name>
                <value>134217728</value>
        </property>
        <!--HDFS的元数据存放目录-->
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/home/hadoopdata/dfs/name</value>
        </property>
        <!--HDFS数据存储目录-->
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/home/hadoopdata/dfs/data</value>
        </property>
        <!--HDFS的检测目录-->
        <property>
                <name>dfs.checkpoint.dir</name>
                <value>/home/hadoopdata/checkpoint/dfs/cname</value>
        </property>
        <!--HDFS的NameNode的web UI监控-->
        <property>
                <name>dfs.http.address</name>
                <value>a:50070</value>
        </property>
        <!--HDFS的snn的web UI地址-->
        <property>
                <name>dfs.secondary.http.address</name>
                <value>a:50090</value>
        </property>
        <!--是否开启web操作HDFS-->
        <property>
                <name>dfs.webdhfs.enabled</name>
                <value>false</value>
        </property>
        <!--是否启用HDFS的权限(acl)-->
        <property>
                <name>dfs.permissions</name>
                <value>false</value>
        </property>
</configuration>

配置mapred-site.xml

#修改mapred-site.xml.template为mapred-site.xml
mv ./etc/hadoop/mapred-site.xml.template ./etc/hadoop/mapred-site.xml
vi ./etc/hadoop/mapred-site.xml
#在configuration中配置
<configuration>
        <!--指定mapreduce的运行框架-->
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
                <final>true</final>
        </property>
        <!--历史服务的通信地址-->
        <property>
                <name>mapreduce.jobhistory.address</name>
                <value>a:10020</value>
        </property>
        <!--历史服务web UI地址-->
        <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>a:19888</value>
        </property>
</configuration>
配置slaves

#输入三台服务器的名字
vi ./etc/hadoop/slaves
a
a1
a2

将Hadoop配置分发到别的服务器中
scp -r /usr/local/hadoop-2.8.5 a1:/usr/local
scp -r /usr/local/hadoop-2.8.5 a2:/usr/local
启动Hadoop集群
在NameNode服务器格式化
hadoop namenode -format
启动Haoop集群
start-all.sh
查看进程
jps
#如果按照集群规划在集群服务器上分别启动了规划中的进程即为成功
#1.NameNode、DataNode、ResourceManager、NodeManager、SecondaryNameNode
#2.DataNode、NodeManager
#3.DataNode、NodeManager
查看HDFS web监控
ip:50070
至此,Hadoop集群部署成功
Matlab基于粒子群优化算法及鲁棒MPPT控制器提高光伏并网的效率内容概要:本文围绕Matlab在电力系统优化与控制领域的应用展开,重点介绍了基于粒子群优化算法(PSO)和鲁棒MPPT控制器提升光伏并网效率的技术方案。通过Matlab代码实现,结合智能优化算法与先进控制策略,对光伏发电系统的最大功率点跟踪进行优化,有效提高了系统在不同光照条件下的能量转换效率和并网稳定性。同时,文档还涵盖了多种电力系统应用场景,如微电网调度、储能配置、鲁棒控制等,展示了Matlab在科研复现与工程仿真中的强大能力。; 适合人群:具备一定电力系统基础知识和Matlab编程能力的高校研究生、科研人员及从事新能源系统开发的工程师;尤其适合关注光伏并网技术、智能优化算法应用与MPPT控制策略研究的专业人士。; 使用场景及目标:①利用粒子群算法优化光伏系统MPPT控制器参数,提升动态响应速度与稳态精度;②研究鲁棒控制策略在光伏并网系统中的抗干扰能力;③复现已发表的高水平论文(如EI、SCI)中的仿真案例,支撑科研项目与学术写作。; 阅读建议:建议结合文中提供的Matlab代码与Simulink模型进行实践操作,重点关注算法实现细节与系统参数设置,同时参考链接中的完整资源下载以获取更多复现实例,加深对优化算法与控制系统设计的理解。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值