
Hadoop
文章平均质量分 96
羽枫760
加油吧
展开
-
Hadoop系列(四)Hive数据仓库安装以及替换元数据库
1.安装hive单机环境1.1下载稳定版镜像下载地址下载之前先看一下hive版本对应的hadoop版本。我下载的是2.3.7版本1.2 上传服务器解压重命名命令:tar -xzvf apache-hive-2.3.7-bin.tar.gzmv apache-hive-2.3.7-bin hive2371.3添加hive到全局环境变量命令:vim ~/.bashrc添加如下配置export HIVE_HOME=/usr/local/hadoop/hive237#将下面这段代码追原创 2020-10-29 16:43:52 · 794 阅读 · 0 评论 -
Hadoop系列(三) Hbase搭建全分布式集群
1.搭建Hbase全分布式集群环境全分布式环境在已经搭建好的单机环境基础上继续构建,需要停止单机的hbase服务。1.1编辑hbase配置文件修改hbase-site.xml文件指定hbase以分布式模式运行,另外还需要指定master主机dfs运行的地址,这个地址需要和之前搭建hadoop中core-site.xml所配置的fs.defaultFS一致,apache hbase官网给的端口是8020,因为在hadoop配置fs.defaultFS时配置的是8020.这个以自己的配置为准,不过目前a原创 2020-10-28 10:16:26 · 380 阅读 · 0 评论 -
Hadoop系列(二)Hbase单机环境搭建
1.安装Hadoop单机环境1.1下载haddoop安装包,hbase-2.3.2-bin.tar.gz网址:hbase下载地址1.2 解压安装包安装包上传至服务器的/usr/local/hadoop目录下解压命令tar -xzvf hbase-2.3.2-bin.tar.gz修改目录名称,解压后的目录名称为 hbase-2.3.2命令mv hbase-2.3.2 hbase232进入bin目录cd /hbase232/bin1.3 修改hbase-env.sh,设置jdk的原创 2020-10-27 18:29:31 · 546 阅读 · 0 评论 -
Hadoop系列(一)Hadoop全分布式集群环境搭建
0.准备工作0.0 准备三台虚拟主机可以不用直接准备三台,可以先配置一台,然后使用vmware再克隆两台出来,克隆之后要修改他们的“ifcfg-ens-xxx”的网卡配置文件,确保三台主机ip不同。0.1固定ip地址,卸载或禁用防火墙。修改ifcfg-ens-xxx的网卡配置文件,根据实际情况自行修改0.2配置主机与宿主机时间同步如果是三台物理机,可以跳过这个步骤0.2.1方式一:安装ntp服务(推荐)yum install -y ntpdatecp /usr/share/zoneinf原创 2020-10-27 18:08:56 · 514 阅读 · 0 评论