既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
HADOOP_HOME
要用Hadoop的命令,就要设置HADOOP_HOME,跟JAVA_HOME一个道理
vi /etc/profile
最后改为
export JAVA\_HOME=/usr/java/default
export HADOOP\_HOME=/opt/bigdata/hadoop-2.6.5
export PATH=$PATH:$JAVA\_HOME/bin:$HADOOP\_HOME/bin:$HADOOP\_HOME/sbin
source /etc/profile
配置好后,在任何地方都可以用hadoop的命令
配置文件
Hadoop的配置文件的目录
cd /opt/bigdata/hadoop-2.6.5/etc/hadoop/
或 分两次
cd $HADOOP\_HOME
cd etc/hadoop/
ls
给Hadoop 配置JAVA_HOME
因为Hadoop需要ssh免密登录的,但ssh有个弊端,必须修改 hadoop-env.sh
配置jdk的绝对路径
ssh弊端:登录“另一台机”(虽然伪分布式只有单机,但也可视为多机)时不会自动加载 /etc/profile
目录,所以是拿不到 JAVA_HOME 的
cd $HADOOP\_HOME/etc/hadoop/
vi hadoop-env.sh
找到export JAVA\_HOME=${JAVA\_HOME}改为
export JAVA\_HOME=/usr/java/default
定位
修改后
即:JAVA_HOME 要设置两次:系统,Hadoop
配置Hadoop角色
Hadoop角色 :NameNode ,DataNode ,Secondary
不知道的,直接跟着配,也不用看下面的补充官方文档解释
会发现配置文件是空的
把配置的内容写在中间
必看:配置的内容,给你了,就是缩进的那些东西
<configuration>
配置内容
</configuration>
这些配置文件一个个来
核心配置文件 core-site.xml
角色NameNode在哪里启动:node01的9000端口(node01是前面配过的主机名)
实际应该避免使用:像官方文档写的是localhost
要具体写死是哪个主机
vi core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://node01:9000</value>
</property>
配置hdfs,hdfs-site.xml
伪分布式的块副本数是1,真正集群要改为2或3
NN的元数据name目录,DN的块数据data目录
Secondary NameNode ,合并主NN的 fsimage和editlog
<name>
属性文档规定死的,<value>
都要是空目录/不存在的(自动创建)
vi hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/var/bigdata/hadoop/local/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/var/bigdata/hadoop/local/dfs/data</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node01:50090</value>
</property>
<property>
<name>dfs.namenode.checkpoint.dir</name>
<value>/var/bigdata/hadoop/local/dfs/secondary</value>
</property>
slaves 放启动DN的主机
vi slaves
node01
补充
想了解具体的要去看官方文档
配置文件导航
点击超链接打开网页文件,Ctrl+F 搜索重点:
https://hadoop.apache.org/docs/r2.6.5/hadoop-project-dist/hadoop-common/core-default.xml
https://hadoop.apache.org/docs/r2.6.5/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml
NN和DN都要临时目录,放临时数据的,/tmp 会被系统删除,建议改目录
所以开箱即用的配置是有风险的
格式化/初始化(“企业一辈子就这一次”)
/var 目录下没有bigdata目录
格式化
hdfs namenode -format
重要的是看输出的底部
就有bigdata了
格式化时,只初始化 NameNode
DataNode 、Secondary 在第一次启动时才创建初始化
clusterID - 集群ID
为什么不要在启动了后再次格式化?因为会导致这个id改变,NN和
DN就不匹配了
启动
启动dfs分布式文件系统,要停止就换为stop
start-dfs.sh
或
start-all.sh
以下是验证,不关搭建的事
可以直接跳到下面的浏览器访问
本来只有name,现在就验证创建了data、secondary
看一下data块数据目录下有什么
完整的
Windows浏览器访问服务
- 修改 Windows 的 hosts映射,找到文件打开
C:\Windows\System32\drivers\etc\hosts
- 添加 Linux主机的 IP和主机名
192.168.40.136 node01



**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**
**由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**
**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.youkuaiyun.com/topics/618545628)**
mg-iChm7RX1-1715754966628)]
[外链图片转存中...(img-s7RfleK7-1715754966629)]
**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**
**由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**
**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.youkuaiyun.com/topics/618545628)**