大数据集群环境准备

本文详细介绍Hadoop大数据集群的部署步骤,包括服务器配置、软件安装、环境变量设置及集群启动等关键环节,为读者提供一份全面的大数据集群搭建教程。

大数据集群准备步骤

1 准备三台服务器出来 配置主机名,主机和ip对应关系 node01 node02 node03
2 关闭三台服务器防火墙 设置开机不自启动
3 关闭三台服务器selinux 设置disabled
4 给三台服务器安装jdk1.8 安装目录为/export/servers
5 设置三台服务器免密码登录
6 上传编译好的hadoop压缩包到主节点的/export/soft目录下面
执行压缩到/export/servers目录下
先更改一下包名
mv hadoop-2.6.0-cdh5.14.0-自己编译后的版本.tar.gz hadoop-2.6.0- cdh5.14.0.tar.gz
压缩命令
tar -zxvf hadoop-2.6.0-cdh5.14.0.tar.gz -C …/servers/
7 查看 hadoop支持的压缩方式以及本地库
主节点在/export/servers/hadoop-2.6.0-cdh5.14.0目录下执行以下命令
bin/hadoop checknative
在这里插入图片描述

执行下面命令进行安装openssl
yum -y install openssl-devel
在这里插入图片描述

8 修改hadoop核心配置 文件
执行 cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop 切换目录

执行命令修改配置文件 vim core-site.xml


fs.defaultFS
hdfs://node01:8020


hadoop.tmp.dir
/export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/tempDatas



io.file.buffer.size
4096

<!--  开启hdfs的垃圾桶机制,删除掉的数据可以从垃圾桶中回收,单位分钟 -->
<property>
    <name>fs.trash.interval</name>
    <value>10080</value>
</property>

修改hdfs-site.xml
vim hdfs-site.xml


<!-- 集群动态上下线

dfs.hosts
/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/accept_host

<property>
    <name>dfs.hosts.exclude</name>
    <value>/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/deny_host</value>
</property>
 -->
 
 <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>node01:50090</value>
</property>

<property>
    <name>dfs.namenode.http-address</name>
    <value>node01:50070</value>
</property>
<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/namenodeDatas</value>
</property>
<!--  定义dataNode数据存储的节点位置,实际工作中,一般先确定磁盘的挂载目录,然后多个目录用,进行分割  -->
<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/datanodeDatas</value>
</property>

<property>
    <name>dfs.namenode.edits.dir</name>
    <value>file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/edits</value>
</property>
<property>
    <name>dfs.namenode.checkpoint.dir</name>
    <value>file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/snn/name</value>
</property>
<property>
    <name>dfs.namenode.checkpoint.edits.dir</name>
    <value>file:///export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/snn/edits</value>
</property>
<property>
    <name>dfs.replication</name>
    <value>2</value>
</property>
<property>
    <name>dfs.permissions</name>
    <value>false</value>
</property>
dfs.blocksize 134217728

修改Hadoop-env.sh
vim hadoop-env.sh
export JAVA_HOME=/export/servers/jdk1.8.0_141

修改mapred-site.xml
此时目录下面没有mapred-site.xml 这个文件 只有mapred-site.xml.template
需要执行 cp mapred-site.xml.template mapred-site.xml 命令
vim mapred-site.xml


mapreduce.framework.name
yarn

<property>
    <name>mapreduce.job.ubertask.enable</name>
    <value>true</value>
</property>

<property>
    <name>mapreduce.jobhistory.address</name>
    <value>node01:10020</value>
</property>

<property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>node01:19888</value>
</property>

修改yarn-site.xml
vim yarn-site.xml


yarn.resourcemanager.hostname
node01


yarn.nodemanager.aux-services
mapreduce_shuffle

修改slaves文件
vim slaves
添加节点进去

在这里插入图片描述

9 创建一些文件目录
主节点执行
mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/tempDatas
mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/namenodeDatas
mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/datanodeDatas
mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/edits
mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/snn/name
mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/snn/edits

10 安装包分发
主节点执行负责
cd /export/servers/
scp -r hadoop-2.6.0-cdh5.14.0/ node02:PWDscp−rhadoop−2.6.0−cdh5.14.0/node03:PWD scp -r hadoop-2.6.0-cdh5.14.0/ node03:PWDscprhadoop2.6.0cdh5.14.0/node03:PWD

11 配置hadoop环境变量
简便方法 把/etc/profile,.d/下面的java.sh 拷贝一份更改为hadoop.sh
更改一下里面配置路径即可
配置完毕执行 source/etc/profile
12 集群启动
第一次启动需要在主节点格式化 集群
bin/hdfs namenode -format
一键启动所有集群
sbin/start-all.sh
在主节点输入jps

在这里插入图片描述
出现此图代表启动成功
去从节点jps
在这里插入图片描述
此图代表成功

hdfs集群访问地址: http://192.168.52.100:50070/dfshealth.html#tab-overview
在这里插入图片描述

yarn集群访问地址: http://192.168.52.100:8088/cluster

在这里插入图片描述

**项目名称:** 基于Vue.js与Spring Cloud架构的博客系统设计与开发——微服务分布式应用实践 **项目概述:** 本项目为计算机科学与技术专业本科毕业设计成果,旨在设计并实现一个采用前后端分离架构的现代化博客平。系统前端基于Vue.js框架构建,提供响应式用户界面;后端采用Spring Cloud微服务架构,通过服务拆分、注册发现、配置中心及网关路由等技术,构建高可用、易扩展的分布式应用体系。项目重点探讨微服务模式下的系统设计、服务治理、数据一致性及部署运维等关键问题,体现了分布式系统在Web应用中的实践价值。 **技术架构:** 1. **前端技术栈:** Vue.js 2.x、Vue Router、Vuex、Element UI、Axios 2. **后端技术栈:** Spring Boot 2.x、Spring Cloud (Eureka/Nacos、Feign/OpenFeign、Ribbon、Hystrix、Zuul/Gateway、Config) 3. **数据存储:** MySQL 8.0(主数据存储)、Redis(缓存与会话管理) 4. **服务通信:** RESTful API、消息队列(可选RabbitMQ/Kafka) 5. **部署与运维:** Docker容器化、Jenkins持续集成、Nginx负载均衡 **核心功能模块:** - 用户管理:注册登录、权限控制、个人中心 - 文章管理:富文本编辑、分类标签、发布审核、评论互动 - 内容展示:首页推荐、分类检索、全文搜索、热门排行 - 系统管理:后仪表盘、用户与内容监控、日志审计 - 微服务治理:服务健康检测、动态配置更新、熔断降级策略 **设计特点:** 1. **架构解耦:** 前后端完全分离,通过API网关统一接入,支持独立开发与部署。 2. **服务拆分:** 按业务域划分为用户服务、文章服务、评论服务、文件服务等独立微服务。 3. **高可用设计:** 采用服务注册发现机制,配合负载均衡与熔断器,提升系统容错能力。 4. **可扩展性:** 模块化设计支持横向扩展,配置中心实现运行时动态调整。 **项目成果:** 完成了一个具备完整博客功能、具备微服务典型特征的分布式系统原型,通过容器化部署验证了多服务协同运行的可行性,为云原生应用开发提供了实践参考。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值