部署HUE

第一步:下载Hue的压缩包并上传到linux解压

http://archive.cloudera.com/cdh5/cdh/5/hue-3.9.0-cdh5.7.0.tar.gz

第二步:编译安装启动

2.1联网安装各种必须的依赖包:

	yum install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libxml2-devel libxslt-devel make  mysql mysql-devel openldap-devel python-devel sqlite-devel gmp-devel

2.2 开始配置Hue

	cd  /root/hue-3.9.0-cdh5.7.0/desktop/conf
	vim hue.ini
##通用配置
secret_key=jFE93j;2[290-eiw.KEiwN2s3['d;/.q[eIW^y#e=+Iei*@Mn<qW5o
http_host=hadoop-01
is_hue_4=true
time_zone=Asia/Shanghai
server_user=root
server_group=root
default_user=root
default_hdfs_superuser=hadoop
#配置使用mysql作为hue的存储数据库,大概在hue.ini的587行左右
[[database]]
engine=mysql
host=hadoop-01
port=3306
user=root
password=123456
name=hue

2.3 创建mysql库

create database hue default character set utf8 default collate utf8_general_ci;

2.4 准备编译

	cd  /root/hue-3.9.0-cdh5.7.0/desktop/conf
	make apps

2.5、linux系统添加普通用户hue

useradd hue
passwd hue

2.6、启动hue进程

cd /root/hue-3.9.0-cdh5.7.0/desktop/conf
build/env/bin/supervisor

2.7、页面访问
http://hadoop-01:8888
第一次访问的时候,需要设置管理员用户和密码
我们这里的管理员的用户名与密码尽量保持与我们安装hadoop的用户名和密码一致,
我们安装hadoop的用户名与密码分别是hadoop 123456
初次登录使用hadoop用户,密码为123456

HUE与HDFS 、HIVE的集成

3.1、hue与hadoop的HDFS以及yarn集成
第一步:更改所有hadoop节点的core-site.xml配置
记得更改完core-site.xml之后一定要重启hdfs与yarn集群

<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property> 

第二步:更改所有hadoop节点的hdfs-site.xml

<property>
	  <name>dfs.webhdfs.enabled</name>
	  <value>true</value>
	</property>

第三步:重启hadoop集群

第四步:停止hue的服务,并继续配置hue.ini
vim hue.ini
配置我们的hue与hdfs集成

[[hdfs_clusters]]
    [[[default]]]
fs_defaultfs=hdfs://hadoop-01:8020
webhdfs_url=http://hadoop-01:50070/webhdfs/v1
hadoop_hdfs_home=/home/hadoop/app/hadoop-2.6.0-cdh5.7.0
hadoop_bin==/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/bin
hadoop_conf_dir==/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop

配置我们的hue与yarn集成

[[yarn_clusters]]
    [[[default]]]
      resourcemanager_host=hadoop-01
      resourcemanager_port=8032
      submit_to=True
      resourcemanager_api_url=http:/hadoop-01:8088
   

3.2、配置hue与hive集成
如果需要配置hue与hive的集成,我们需要启动hive的metastore服务以及hiveserver2服务
更改hue的配置hue.ini
修改hue.ini

[beeswax]
  hive_server_host=hadoop-01
  hive_server_port=10000
  hive_conf_dir=/home/hadoop/app/hive-1.1.0-cdh5.7.0/conf
  server_conn_timeout=120
  auth_username=hadoop
  auth_password=123456
[metastore]
  #允许使用hive创建数据库表等操作
  enable_new_create_table=true

启动hive的metastore服务
启动hive的metastore以及hiveserver2服务
nohup hive --service metastore &
nohup hive --service hiveserver2 &

重新启动hue,然后就可以通过浏览器页面操作hive了
hdfs存储系统
在这里插入图片描述
hive的query界面:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值