haddop安装

环境

  • macOS Catalina 10.15.6
  • JDK 1.8.0_261
  • homebrew

安装

  • ssh locahost(免密码登陆)

在这里插入图片描述

ssh-keygen -t rsa -P "you-email"
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
ssh localhost
  • 安装

    brew install hadoop

配置

所有的配置均在: /usr/local/Cellar/hadoop/3.3.0/libexec/etc/hadoop下

  • 配置文件

配置文件的名称

作用

core-site.xml

核心配置文件,主要定义了我们文件访问的格式 hdfs://

hadoop-env.sh

主要配置我们的java路径

hdfs-site.xml

主要定义配置我们的hdfs的相关配置

mapred-site.xml

主要定义我们的mapreduce相关的一些配置

slaves

控制我们的从节点在哪里 datanode nodemanager在哪些机器上

yarm-site.xml

配置我们的resourcemanager资源调度

  • 指定Java环境:hadoop-env.sh

    export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_261.jdk/Contents/Home

  • core-site.xml

    hadoop.tmp.dir /usr/local/Cellar/hadoop/hdfs/tmp A base for other temporary directories. fs.default.name hdfs://localhost:9000
  • mapred-site.xml

    mapred.job.tracker localhost:9010
  • hdfs-site.xml

    dfs.replication 1

运行

  • 格式化hdfs文件系统

    cd /usr/local/Cellar/hadoop/3.3.0/bin
    hadoop namenode -format

  • 运行

    cd /usr/local/Cellar/hadoop/3.3.0/sbin
    ./start-all.sh
    jps
    57969 SecondaryNameNode
    58161 ResourceManager
    57734 NameNode
    58263 NodeManager
    49034 RemoteMavenServer36
    57835 DataNode
    61182 Jps

<think>好的,用户需要了解Hadoop的部署方法或安装配置指南。首先,我需要回忆之前提供的引用内容,里面有关于安装步骤、配置文件和解压目录的信息。引用[3]提到解压到/data/目录并重命名,引用[4]提到上传MySQL安装包到特定目录,这可能和Hadoop部署相关吗?不过用户的问题集中在Hadoop上,可能需要专注于引用1、2、3的内容。 接下来,我需要整理Hadoop部署的基本步骤。根据引用内容,安装步骤包括安装前的准备,如Java环境、用户创建、SSH配置。然后解压Hadoop到指定目录,配置环境变量。引用3中的解压路径是/data/hadoop/,这可能是一个例子。然后配置核心文件如core-site.xml(引用1)、hdfs-site.xml、mapred-site.xml、yarn-site.xml,这些属于Hadoop的核心配置。 然后需要格式化HDFS,启动集群。引用2提到进入安装目录执行命令检查版本,启动时可能需要执行sbin/start-all.sh。另外,单机模式、伪分布式和完全分布式的区别需要说明,用户可能不清楚这些模式的区别,所以需要分别解释,并给出配置示例。例如,单机模式不需要修改配置文件,伪分布式需要配置本地节点,而完全分布式需要配置多个节点,如引用1提到的在所有节点上安装Hadoop,并编辑core-site.xml。 还需要注意配置SSH免密登录,这在多节点部署中是必需的。引用4虽然提到的是MySQL的上传,但拖移文件到指定目录的方法可能和Hadoop安装包的上传类似,用户可能需要知道如何将Hadoop安装包上传到虚拟机,比如使用scp或者拖放工具。 用户可能遇到的问题包括环境变量配置错误、端口冲突、权限问题等,应该在注意事项中提到。例如,确保所有节点的防火墙设置正确,目录权限正确,以及Java版本兼容性。引用2中的检查Hadoop版本命令可以帮助用户验证安装是否成功。 最后,生成相关问题时要围绕Hadoop部署的常见疑问,比如环境准备、配置文件作用、部署模式选择、启动失败处理等。这些能帮助用户进一步学习或解决问题。 总结步骤:环境准备→安装包解压→配置→格式化→启动→验证。确保每个步骤清晰,并引用对应的引用内容,如引用1提到的配置core-site.xml,引用3的解压步骤,引用2的版本检查命令。同时,注意用户可能是在Linux环境下部署,需要给出具体的命令示例,如tar命令解压、编辑配置文件的命令等。</think>### Hadoop部署方法详解 Hadoop部署主要分为单机模式、伪分布式模式和完全分布式模式三种,以下是基于Linux系统的部署步骤(以Hadoop 3.3.4为例): --- #### 一、环境准备 1. **安装Java环境** Hadoop依赖Java 8或更高版本,需先配置`JAVA_HOME`环境变量: ```bash sudo apt install openjdk-8-jdk echo 'export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64' >> ~/.bashrc ``` 2. **创建专用用户** 建议创建独立用户`hadoop`并配置权限: ```bash sudo useradd hadoop sudo passwd hadoop ``` 3. **SSH免密登录配置** 多节点部署需配置SSH密钥(伪分布式也需要): ```bash ssh-keygen -t rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys ``` --- #### 二、Hadoop安装与配置 1. **解压安装包** 将上传的安装包解压至目标目录(如`/data/`): ```bash tar zxvf hadoop-3.3.4.tar.gz -C /data/ mv /data/hadoop-3.3.4 /data/hadoop # 引用[3] ``` 2. **配置环境变量** 在`~/.bashrc`中添加: ```bash export HADOOP_HOME=/data/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` --- #### 三、核心配置文件修改 1. **`core-site.xml`** 设置HDFS默认地址和临时目录: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> # 单节点使用localhost </property> <property> <name>hadoop.tmp.dir</name> <value>/data/hadoop/tmp</value> # 引用[1] </property> </configuration> ``` 2. **`hdfs-site.xml`** 配置副本数(伪分布式设为1): ```xml <property> <name>dfs.replication</name> <value>1</value> </property> ``` --- #### 四、初始化与启动 1. **格式化HDFS** ```bash hdfs namenode -format ``` 2. **启动集群** ```bash start-dfs.sh # 启动HDFS start-yarn.sh # 启动YARN ``` 3. **验证运行状态** ```bash jps # 应显示NameNode、DataNode等进程 ``` --- #### 五、完全分布式模式补充 1. **节点配置同步** 在所有节点上重复上述安装步骤,并在`core-site.xml`中设置主节点IP: ```xml <value>hdfs://192.168.1.100:9000</value> ``` 2. **修改`workers`文件** 添加所有DataNode的主机名或IP: ``` node1 node2 node3 ``` --- #### 注意事项 - 所有节点需**时间同步**(使用NTP服务) - 防火墙需开放**9000**(HDFS)、**8088**(YARN)、**50070**(Web UI)等端口 - 目录权限需统一,例如`/data/hadoop`目录所有者设为`hadoop`用户 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值