ubuntu18.04搭建hadoop伪分布式环境+JobHistory日志监控开启+命令行编译以及jar打包

一、配置环境按照下面网址进行搭建

https://blog.youkuaiyun.com/YL0701/article/details/86589538

 

二、开启日志监控JobHistory功能需要修改mapred-site.xml和yarn-site.xml

 

mapred-site.xml里加入下面设置:

<configuration> 

    <property>

       <name>mapreduce.framework.name</name>

       <value>yarn</value>

    </property>

  <property> 

    <name>mapreduce.jobhistory.address</name>

    <value>localhost:10020</value>

   </property> 



   <property> 

    <name>mapreduce.jobhistory.webapp.address</name>

    <value>localhost:19888</value>

  </property>

    <property>

       <name>mapreduce.jobhistory.done-dir</name>

       <value>/history/done</value>

    </property>



    <property>

        <name>mapreduce.jobhistory.intermediate-done-dir</name>

        <value>/history/done_intermediate</value>

    </property>

</configuration>

 

yarn-site.xml里加入下面设置:

<configuration> 

<!-- Site specific YARN configuration properties -->

    <property> 

        <name>yarn.nodemanager.aux-services</name> 

        <value>mapreduce_shuffle</value> 

    </property> 

    <property> 

        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

        <value>org.apache.hadoop.mapred.ShuffleHandler</value> 

    </property> 

    <property> 

        <name>yarn.resourcemanager.address</name> 

        <value>127.0.0.1:8032</value> 

    </property> 

    <property> 

        <name>yarn.resourcemanager.scheduler.address</name> 

        <value>127.0.0.1:8030</value> 

    </property> 

    <property> 

        <name>yarn.resourcemanager.resource-tracker.address</name> 

        <value>127.0.0.1:8031</value> 

    </property> 

    <!-- 日志聚集功能使能 --> 

    <property>

    <name>yarn.log-aggregation-enable</name>

    <value>true</value>

    </property>



    <!-- 日志聚合目录 -->

    <property>

    <name>yarn.nodemanager.remote-app-log-dir</name>

    <value>/history/container/logs</value>

    </property>



    <property>

           <name>yarn.log.server.url</name>

           <value>localhost:19888/jobhistory/logs</value>

    </property>

</configuration>

 

 

上面两个文件修改完成后需要重启hadoop服务,重启后还需执行

sbin/mr-jobhistory-daemon.sh start historyserver

来启动historyserver

 

三、使用命令行来进行代码的编译和打包jar文件

首先要修改hadoop-env.sh文件,加入

export HADOOP_CLASSPATH=$PATH:/usr/java/jdk1.8.0_11/lib/tools.jar

此时就可以使用命令行打包了

编译指令(可以多个java文件一起编译):

bin/hadoop com.sun.tools.javac.Main WordCount.java

打包jar文件指令(可以多个class打包在一起):

jar cf wc.jar WordCount*.class

 

内容概要:本文详细探讨了双馈风力发电机(DFIG)在Simulink环境下的建模方法及其在不同风速条件下的电流与电压波形特征。首先介绍了DFIG的基本原理,即定子直接接入电网,转子通过双向变流器连接电网的特点。接着阐述了Simulink模型的具体搭建步骤,包括风力机模型、传动系统模型、DFIG本体模型和变流器模型的建立。文中强调了变流器控制算法的重要性,特别是在应对风速变化时,通过实时调整转子侧的电压和电流,确保电流和电压波形的良好特性。此外,文章还讨论了模型中的关键技术和挑战,如转子电流环控制策略、低电压穿越性能、直流母线电压脉动等问题,并提供了具体的解决方案和技术细节。最终,通过对故障工况的仿真测试,验证了所建模型的有效性和优越性。 适用人群:从事风力发电研究的技术人员、高校相关专业师生、对电力电子控制系统感兴趣的工程技术人员。 使用场景及目标:适用于希望深入了解DFIG工作原理、掌握Simulink建模技能的研究人员;旨在帮助读者理解DFIG在不同风速条件下的动态响应机制,为优化风力发电系统的控制策略提供理论依据和技术支持。 其他说明:文章不仅提供了详细的理论解释,还附有大量Matlab/Simulink代码片段,便于读者进行实践操作。同时,针对一些常见问题给出了实用的调试技巧,有助于提高仿真的准确性和可靠性。
<think>嗯,用户想了解在Ubuntu上安装Hadoop的步骤。我需要先理清楚整个过程,然后分步骤解释清楚。首先,Hadoop的安装需要准备一些前置条件,比如Java环境,因为Hadoop是基于Java开发的。所以第一步应该是安装Java JDK。可能需要提醒用户检查是否已经安装了合适的版本,比如Java 8或更高版本。 接下来,用户需要创建一个专用的Hadoop用户账户,这样可以避免使用root权限带来的安全风险。这一步可能涉及到用户管理和权限设置,需要给出具体的命令,比如useradd和passwd命令。 然后是下载和解压Hadoop的安装包。这里要选择合适的版本,比如最新的稳定版,可能需要指导用户到Apache官网或者镜像站点下载。解压后,最好将文件夹移动到合适的目录,比如/usr/local/hadoop,这样更符合Linux的文件系统结构。 配置Hadoop环境变量是关键步骤。需要修改.bashrc文件,添加JAVA_HOME和HADOOP_HOME的路径,并更新PATH变量。这一步如果出错,可能导致后续命令无法识别,所以需要详细说明每个变量的作用。 接下来是Hadoop的配置文件部分,包括hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml。每个文件都有特定的配置项,比如设置HDFS的地址、副本数、资源管理框架等。对于单机模式或伪分布式模式,配置会有所不同,需要根据用户的需求来调整。如果是伪分布式,可能需要配置本地主机作为NameNode和DataNode。 格式化HDFS是初始化的重要步骤,但要注意这只有在首次安装时才需要,否则会丢失数据。需要提醒用户谨慎操作,使用hdfs namenode -format命令。 最后是启动Hadoop集群,通过运行start-dfs.sh和start-yarn.sh脚本,然后使用jps命令检查进程是否正常启动。验证部分可以通过访问Web界面或运行示例程序来确认安装成功。 可能用户是刚开始接触HadoopUbuntu,所以在解释时要避免使用过于专业的术语,或者至少给出术语的解释。另外,要考虑到用户可能遇到的常见问题,比如Java路径配置错误、权限不足、端口冲突等,可能需要给出一些排查建议。 此外,用户的需求可能不仅仅是安装,还可能想了解后续的使用方法,比如如何提交作业或管理集群。但根据问题,主要是安装步骤,所以应该集中在安装过程上。如果用户需要更深入的内容,可能需要后续的问题来展开。 最后,确保步骤清晰,命令准确,避免遗漏关键步骤,比如环境变量的生效需要source命令,或者配置文件的路径是否正确。同时,提醒用户在操作过程中注意备份原有配置文件,以防万一需要恢复。</think>以下是在 Ubuntu 系统上安装 Hadoop 的详细步骤(以**伪分布式模式**为例): --- ### **1. 前置条件** - **Ubuntu 系统**(建议 18.04 或更高版本) - **Java 环境**:Hadoop 依赖 Java 8 或更高版本(推荐 OpenJDK 8) --- ### **2. 安装 Java** ```bash # 安装 OpenJDK 8 sudo apt update sudo apt install openjdk-8-jdk # 验证安装 java -version ``` --- ### **3. 创建 Hadoop 专用用户(可选但推荐)** ```bash sudo adduser hadoopuser sudo usermod -aG sudo hadoopuser # 赋予 sudo 权限(可选) su - hadoopuser # 切换到新用户 ``` --- ### **4. 下载并解压 Hadoop** ```bash # 下载 Hadoop(以 3.3.6 版本为例) wget https://downloads.apache.org/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gz # 解压并移动到 /usr/local/hadoop sudo tar -xzvf hadoop-3.3.6.tar.gz -C /usr/local sudo mv /usr/local/hadoop-3.3.6 /usr/local/hadoop sudo chown -R hadoopuser:hadoopuser /usr/local/hadoop # 设置权限 ``` --- ### **5. 配置环境变量** 编辑 `~/.bashrc` 文件,添加以下内容: ```bash export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 # 根据实际路径修改 export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 运行 `source ~/.bashrc` 使配置生效。 --- ### **6. 修改 Hadoop 配置文件** 进入 `$HADOOP_HOME/etc/hadoop/` 目录,修改以下文件: #### **(1) hadoop-env.sh** ```bash export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 # 确保 Java 路径正确 ``` #### **(2) core-site.xml** ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` #### **(3) hdfs-site.xml** ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> <!-- 单节点副本数为1 --> </property> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoopuser/hadoop_data/namenode</value> <!-- 自定义存储路径 --> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/hadoopuser/hadoop_data/datanode</value> </property> </configuration> ``` #### **(4) mapred-site.xml** ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` #### **(5) yarn-site.xml** ```xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> ``` --- ### **7. 初始化 HDFS** ```bash # 格式化 NameNode(首次安装时执行) hdfs namenode -format # 启动 HDFS start-dfs.sh # 启动 YARN start-yarn.sh ``` --- ### **8. 验证安装** - **查看进程**:运行 `jps`,应包含以下进程: ``` NameNode DataNode ResourceManager NodeManager SecondaryNameNode ``` - ResourceManager 状态:`http://localhost:8088` --- ### **9. 运行测试任务** ```bash # 在 HDFS 中创建目录 hdfs dfs -mkdir /input # 上传测试文件 hdfs dfs -put $HADOOP_HOME/etc/hadoop/*.xml /input # 运行 MapReduce 示例 hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar grep /input /output 'dfs[a-z.]+' # 查看结果 hdfs dfs -cat /output/* ``` --- ### **常见问题** 1. **权限错误**:确保 Hadoop 数据目录(如 `/home/hadoopuser/hadoop_data`)权限正确。 2. **端口冲突**:检查 `9000`、`9870`、`8088` 等端口是否被占用。 3. **配置错误**:仔细核对 XML 配置文件中的路径和端口。 如需完全分布式集群配置,需额外设置 SSH 免密登录和多节点协调。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值