提示:安装节点未装MySQL,且全程使用普通用户操作,而非root
安装包及部分配置文件:
链接:https://pan.baidu.com/s/1eXbrXzE9HRZCsHJPMhbQ5A?pwd=1234
提取码:1234
--来自百度网盘超级会员V10的分享
安装过程:
一、首先解压几个压缩包
tar -zxvf apache-ant-1.9.16-bin.tar.gz -C /opt/module 重命名为ant
tar -zxvf apache-maven-3.3.9-bin.tar.gz -C /opt/module 再重命名为maven
添加环境变量并source
输入ant -v
输入mvn -v
即表示安装成功
二、安装HUE所需要的依赖包
yum install asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libtidy libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel openssl-devel gmp-devel -y
如果出现 File "/usr/libexec/urlgrabber-ext-down", line 28 except OSError, e:
这个错误是由于Python 3的语法与Python 2不兼容导致的。在Python 3中,except
语句的语法已经改变,应该使用as
关键字来捕获异常。要解决这个问题,你需要修改/usr/libexec/urlgrabber-ext-down
文件中的代码。
将以下代码:
except OSError, e:
修改为:
except OSError as e:
保存文件后,再次尝试安装hue依赖应该就不会出现这个错误了。
然后解压hue的tar包
tar -zxvf hue-3.9.0-cdh5.5.0.tar.gz -C /opt/module 并且重命名为hue
三、安装Python环境
首先解压
tar -zxvf Python-2.7.tgz /opt/module
执行以下命令安装依赖
yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel libffi-devel gcc make |
到Python-2.7目录下,依次执行以下三个命令
./configure --prefix=/usr/local/tools/Python-2.7
make
make install
出现以上,即表示Python环境成功搭建
环境变量参考链接中my_env文件
四、修改/opt/module/hue/desktop/conf文件
secret_key=jFE93j;2[290-eiw.KEiwN2s3['d;/.q[eIW^y#e=+Iei*@Mn<qW5o
http_host=linux01
http_port=8888
time_zone=Asia/Shanghai
五、进入到hue目录下执行命令
build/env/bin/supervisor
访问主页hadoop104:8888
出现这个界面,需要自行输入账号密码,任意,这里以用户名hadoop为例 ,进去后出现一堆报错没有关系,后续集成各组件就行
集成过程
一、配置hue.ini
[[[mysql]]]
nice_name=db_mysql
engine=mysql
#host地址为配置mysql的节点
host=hadoop102
port=3306
user=root
password=123456
[zookeeper]
[[clusters]]
[[[default]]]
host_ports=hadoop102:2181,hadoop103:2181,hadoop104:2181
[hbase]
#选择部署了hbase的master节点
hbase_clusters=(Cluster|hadoop102:9090)
hbase_conf_dir=/opt/module/hbase/conf
hbase这里集成完毕后启动两个命令测试一下
$ bin/start-hbase.sh
$ bin/hbase-daemon.sh start thrift
集成hive:
一、修改hive-site.xml
<!-- TCP 的监听端口-->
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<!-- TCP绑定的主机-->
<property>
<name>hive.server2.thrift.bind.host</name>
<value>hadoop102</value>
</property>
<!-- HiveServer2在响应使用长轮询的异步调用之前等待的时间(毫秒-->
<property>
<name>hive.server2.long.polling.timeout</name>
<value>5000</value>
</property>
<!-- 指向的是运行metastore服务的主机-->
<property>
<name>hive.metastore.uris</name>
<value>thrift://hadoop102:9083</value>
</property>
二、hue.ini文件修改以下
[beeswax]
hive_server_host=hadoop102
hive_server_port=10000
hive_conf_dir=/opt/module/hive/conf
否则会出现database is locked情况,因为此时hue默认的SQLite数据库出现错误,生产环境不适合,需要换成mysql
在mysql中新建一个数据库hive存放元数据
初始化元数据
cd hue/build/env/bin
./hue syncdb
./hue migrate
结束完毕如下:
然后启动元数据和和iveserver
hive --service metastore
hiveserver2
启动hue
在hue目录下
build/env/bin/supervisor