一、内嵌模式
说明:
元数据保存在内嵌的derby中,允许有一个会话链接。
修改配置:
cp hive-env.sh.template hive-env.sh
vim hive-env.sh
HADOOP_HOME=/root/apps/hadoop
启动hive:
在hive中创建一个表
create table newfack(name string,age int)
然后我们即可在hadoop上查看到此表
hdfs dfs -ls /user/hive/warehouse
二、本地模式
说明:
使用本地安装的mysql代替derby存储元数据
拷贝驱动:
cp mysql-connector-java-5.1.32-bin.jar /root/apps/hive/lib/
配置Hadoop环境:
vi hive-env.sh
HADOOP_HOME=/root/apps/hadoop (注释放开)
export HIVE_CONF_DIR=/root/apps/hive/conf
配置文件:
vi hive-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.159.10:3306/hive_metastore?createDatabaseIfNotExist=true</value> <property>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
</property>
</configuration>
启动hive即可
三、远程模式
说明:
使用远程安装的mysql代替derby存储元数据
开启监听:
hiveserver2
(netstat -antp 列出当前连接)
(a为所有、n为禁用域名解析,加快查询、t为TCP、p为进程信息)
新开窗口:
beeline 进入
!connect jdbc:hive2://192.168.159.10:10000 IP是mysql所在的机器,10000为默认端口号
提示后输出用户名、密码
若是权限有问题:
hadoop fs -chmod 777 /user