hadoop 伪分布式安装和全分布式安装

有anaconda、python、jupyter、tensorflow
pycharm 、hadoop、hive、hbase
pytorch 安装、python 爬虫
python pyspark 数据分析
spark数据分析
flink 数据分析
问题可以私信我,大家共同学习,互帮互助!!!
在这里插入图片描述
权限设置
sudo chmod 777 /usr/local
sudo echo “hadoop ALL=(ALL) NOPASSWD:ALL” >> /etc/sudoers

关闭防火墙
sudo systemctl status firewalld 检查状态
sudo systemctl stop firewalld

#把本地的ssh公钥文件安装到远程主机对应的账户下
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
ssh-copy-id -i ~/.ssh/id_rsa.pub hduser@sdata11
ssh-copy-id -i ~/.ssh/id_rsa.pub hduser@sdata12

JDK
sudo apt-get update
sudo apt-get install openjdk-8-jdk
java -version
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

环境变量
export JAVA_HOME=/usr/local/jdk
export HADOOP_HOME=/usr/local/hadoop
export PATH= H A D O O P H O M E / b i n : {HADOOP_HOME}/bin: HADOOPHOME/bin:{JAVA_HOME}/bin: H A D O O P H O M E / s b i n : {HADOOP_HOME}/sbin: HADOOPHOME/sbin:PATH

core-site.xml

<!-- 指定HDFS(namenode)的通信地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:8020</value>
    </property>
    <!-- 指定hadoop运行时产生文件的存储路径 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/data</value>
    </property>

hdfs-site.xml

<property>
      <name>dfs.permissions</name>
      <value>true</value>
   </property>
<!-- 设置hdfs副本数量 -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <!--The secondary namenode http server address and port. -->
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>localhost:9868</value>
    </property>

hadoop-env.sh
export JAVA_HOME=/usr/local/jdk

格式化
hadoop namenode -format
启动
start-all.sh

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值