hive in 写法/linux OR CDH如果查看hive的版本

一:如果是 hive 0.13版本之后是可以使用 hive in的

HIVE 0.13 之后,有子查询
IN 写法
SELECT *
  FROM A.A_TABLE A WHERE R_SE = 'C' AND A.O_CODE
  IN (SELECT O_CODE FROM B.B_TABLE B
  AND CODE = 'M111'
  )
特别需要注意的是 IN 前面字段的表名不能省略,不然会报错
 半连接 EXISTS 写法
EXPLAIN
SELECT *
  FROM A.A_TABLE A WHERE R_SE = 'C' AND EXISTS (SELECT 1 FROM B.B_TABLE B
  WHERE A.O_CODE = B.O_CODE
  AND CODE = 'M111'
  )

在这里插入图片描述
二、安装好的CDH如果查看hive的版本呢
1、官网
2、管理界面中
官网查看一般看到的都是CDH系统默认自带的版本,如果你的CDH在运行的过程中升级过,那再参考官网的版本就会出现错误。
http://www.cloudera.com/documentation/enterprise/release-notes/topics/cdh_vd_cdh5_maven_repo_55x.html#concept_xxt_m11_d5
在这里插入图片描述
如果是在linux 中
如何查看当前hive版本号
方法一
查看jar包版本:

whereis hive 获取 hive位置
查看hive的jar包版本
方法二
进入hive客户端 通过log查看当前hive的版本。
通过log查看当前hive的版本
下面说说如何在CM界面中查看版本:
1、点服务
在这里插入图片描述
2、选择主要的服务
在这里插入图片描述
3、选择这个服务的主机
在这里插入图片描述

在这里插入图片描述

4 .选择组件
在这里插入图片描述
5、找到服务版本

在这里插入图片描述

hive 如果使用in报错大多数都是版本问题
在这里插入图片描述

[root@cdh liyaoming]# hive -f /zhiyun/liyaoming/sql/erp_u_sale_m_inc.sql WARNING: Use "yarn jar" to launch YARN applications. SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/jars/log4j-slf4j-impl-2.8.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/jars/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] Logging initialized using configuration in jar:file:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/jars/hive-common-2.1.1-cdh6.3.2.jar!/hive-log4j2.properties Async: false OK Time taken: 1.406 seconds NoViableAltException(27@[]) at org.apache.hadoop.hive.ql.parse.HiveParser.type(HiveParser.java:32738) at org.apache.hadoop.hive.ql.parse.HiveParser.colType(HiveParser.java:32521) at org.apache.hadoop.hive.ql.parse.HiveParser.columnNameType(HiveParser.java:31840) at org.apache.hadoop.hive.ql.parse.HiveParser.columnNameTypeOrPKOrFK(HiveParser.java:32323) at org.apache.hadoop.hive.ql.parse.HiveParser.columnNameTypeOrPKOrFKList(HiveParser.java:28371) at org.apache.hadoop.hive.ql.parse.HiveParser.createTableStatement(HiveParser.java:5281) at org.apache.hadoop.hive.ql.parse.HiveParser.ddlStatement(HiveParser.java:3112) at org.apache.hadoop.hive.ql.parse.HiveParser.execStatement(HiveParser.java:2266) at org.apache.hadoop.hive.ql.parse.HiveParser.statement(HiveParser.java:1318) at org.apache.hadoop.hive.ql.parse.ParseDriver.parse(ParseDriver.java:218) at org.apache.hadoop.hive.ql.parse.ParseUtils.parse(ParseUtils.java:75) at org.apache.hadoop.hive.ql.parse.ParseUtils.parse(ParseUtils.java:68) at org.apache.hadoop.hive.ql.Driver.compile(Driver.java:564) at org.apache.hadoop.hive.ql.Driver.compileInternal(Driver.java:1425) at org.apache.hadoop.hive.ql.Driver.runInternal(Driver.java:1493) at org.apache.hadoop.hive.ql.Driver.run(Driver.java:1339) at org.apache.hadoop.hive.ql.Driver.run(Driver.java:1328) at org.apache.hadoop.hive.cli.CliDriver.processLocalCmd(CliDriver.java:239) at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:187) at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:409) at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:342) at org.apache.hadoop.hive.cli.CliDriver.processReader(CliDriver.java:487) at org.apache.hadoop.hive.cli.CliDriver.processFile(CliDriver.java:503) at org.apache.hadoop.hive.cli.CliDriver.executeDriver(CliDriver.java:806) at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:772) at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:699) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.util.RunJar.run(RunJar.java:313) at org.apache.hadoop.util.RunJar.main(RunJar.java:227) FAILED: ParseException line 4:7 cannot recognize input near 'inc' ',' 'saleno' in column type [root@cdh liyaoming]# hive -f /zhiyun/liyaoming/sql/erp_u_sale_m_inc.sql
最新发布
10-29
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值