Hive元数据存于mysql中文乱码解决

本文介绍了解决Hive元数据存储于MySQL时出现的中文乱码问题的方法。通过调整数据库编码设置及特定表的字符集,有效解决了中文注释导致的乱码现象。

http://www.crazyant.net/1193.html



最近在搭一套Hive测试环境,使用mysql存储hive的元数据,然而当执行一个带有中文注释的建表文件时,出现了中文乱码的问题。实验过程中发现把整个数据库编码改成latin1或者Utf8都不行,只有把整个数据库设定为latin1而把要存储中文的数据表的编码设定为UTF8才能够解决。

出现问题:执行hive -f "createtable.sql"时说中文乱码不认识。

尝试1失败:将meta database(mysql)的编码全部设定为utf8

则报以下错误 
——————- 
FAILED: Error in metadata: javax.jdo.JDODataStoreException: An exception was thrown while adding/validating class(es) : Specified key was too long; max key length is 767 bytes 
com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: Specified key was too long; max key length is 767 bytes 
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) 
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:39) 
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:27) 
at java.lang.reflect.Constructor.newInstance(Constructor.java:513) 
at com.mysql.jdbc.Util.handleNewInstance(Util.java:411) 
at com.mysql.jdbc.Util.getInstance(Util.java:386) 
at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:1052) 
at com.mysql.jdbc.MysqlIO.checkErrorPacket(MysqlIO.java:3609) 
at com.mysql.jdbc.MysqlIO.checkErrorPacket(MysqlIO.java:3541) 
at com.mysql.jdbc.MysqlIO.sendCommand(MysqlIO.java:2002) 
at com.mysql.jdbc.MysqlIO.sqlQueryDirect(MysqlIO.java:2163) 
at com.mysql.jdbc.ConnectionImpl.execSQL(ConnectionImpl.java:2618) 
at com.mysql.jdbc.ConnectionImpl.execSQL(ConnectionImpl.java:2568) 
at com.mysql.jdbc.StatementImpl.execute(StatementImpl.java:842) 
at com.mysql.jdbc.StatementImpl.execute(StatementImpl.java:681) 
at org.apache.commons.dbcp.DelegatingStatement.execute(DelegatingStatement.java:264) 
at org.apache.commons.dbcp.DelegatingStatement.execute(DelegatingStatement.java:264) 
at org.datanucleus.store.rdbms.table.AbstractTable.executeDdlStatement(AbstractTable.java:730) 
at org.datanucleus.store.rdbms.table.AbstractTable.executeDdlStatementList(AbstractTable.java:681) 
at org.datanucleus.store.rdbms.table.AbstractTable.create(AbstractTable.java:402) 
at org.datanucleus.store.rdbms.table.AbstractTable.exists(AbstractTable.java:458) 
at org.datanucleus.store.rdbms.RDBMSStoreManager$ClassAdder.performTablesValidation(RDBMSStoreManager.java:2689) 
at org.datanucleus.store.rdbms.RDBMSStoreManager$ClassAdder.addClassTablesAndValidate(RDBMSStoreManager.java:2503) 
at org.datanucleus.store.rdbms.RDBMSStoreManager$ClassAdder.run(RDBMSStoreManager.java:2148) 
at org.datanucleus.store.rdbms.AbstractSchemaTransaction.execute(AbstractSchemaTransaction.java:113) 
at org.datanucleus.store.rdbms.RDBMSStoreManager.addClasses(RDBMSStoreManager.java:986) 
at org.datanucleus.store.rdbms.RDBMSStoreManager.addClasses(RDBMSStoreManager.java:952) 
at org.datanucleus.store.AbstractStoreManager.addClass(AbstractStoreManager.java:919) 
at org.datanucleus.store.mapped.MappedStoreManager.getDatastoreClass(MappedStoreManager.java:356) 
at org.datanucleus.store.rdbms.query.legacy.ExtentHelper.getExtent(ExtentHelper.java:48) 
at org.datanucleus.store.rdbms.RDBMSStoreManager.getExtent(RDBMSStoreManager.java:1332)
at org.datanucleus.ObjectManagerImpl.getExtent(ObjectManagerImpl.java:4149) 
at org.datanucleus.store.rdbms.query.legacy.JDOQLQueryCompiler.compileCandidates(JDOQLQueryCompiler.java:411) 
at org.datanucleus.store.rdbms.query.legacy.QueryCompiler.executionCompile(QueryCompiler.java:312) 
at org.datanucleus.store.rdbms.query.legacy.JDOQLQueryCompiler.compile(JDOQLQueryCompiler.java:225) 
at org.datanucleus.store.rdbms.query.legacy.JDOQLQuery.compileInternal(JDOQLQuery.java:175) 
at org.datanucleus.store.query.Query.executeQuery(Query.java:1628) 
at org.datanucleus.store.rdbms.query.legacy.JDOQLQuery.executeQuery(JDOQLQuery.java:245) 
at org.datanucleus.store.query.Query.executeWithArray(Query.java:1499) 
at org.datanucleus.jdo.JDOQuery.execute(JDOQuery.java:266) 
at org.apache.hadoop.hive.metastore.ObjectStore.getMTable(ObjectStore.java:775) 
at org.apache.hadoop.hive.metastore.ObjectStore.getTable(ObjectStore.java:709) 
at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.is_table_exists(HiveMetaStore.java:965) 
at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.create_table_core(HiveMetaStore.java:887) 
at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.access$600(HiveMetaStore.java:109) 
at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler$15.run(HiveMetaStore.java:945) 
at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler$15.run(HiveMetaStore.java:942) 
at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.executeWithRetry(HiveMetaStore.java:307) 
at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.create_table(HiveMetaStore.java:942) 
at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.createTable(HiveMetaStoreClient.java:348) 
at org.apache.hadoop.hive.ql.metadata.Hive.createTable(Hive.java:469) 
at org.apache.hadoop.hive.ql.exec.DDLTask.createTable(DDLTask.java:3149) 
at org.apache.hadoop.hive.ql.exec.DDLTask.execute(DDLTask.java:213) 
at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:130) 
at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:57) 
at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1063) 
at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:900) 
at org.apache.hadoop.hive.ql.Driver.run(Driver.java:748) 
at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:165) 
at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:246) 
at org.apache.hadoop.hive.cli.CliDriver.processReader(CliDriver.java:267) 
at org.apache.hadoop.hive.cli.CliDriver.processFile(CliDriver.java:274) 
at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:435) 
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39) 
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) 
at java.lang.reflect.Method.invoke(Method.java:597) 
at org.apache.hadoop.mapred.util.RunJar.main(RunJar.java:210) 
at org.apache.hadoop.mapred.JobShell.run(JobShell.java:54) 
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65) 
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:79) 
at org.apache.hadoop.mapred.JobShell.main(JobShell.java:68)

NestedThrowables: 
com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: Specified key was too long; max key length is 767 bytes 
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask 
——————-

尝试2失败:将meta server(mysql)的编码全部设定为latin1

则报以下错误: 
——— 
[peishuaishuai@www.crazyant.net sql]$ hive -f crazyant.sql 
Hive history file=/tmp/crazyant/hive_job_log_crazyant_20130904.txt 
OK 
Time taken: 2.064 seconds 
FAILED: Error in metadata: javax.jdo.JDODataStoreException: Add request failed : INSERT INTOCOLUMNS (SD_ID,COMMENT,COLUMN_NAME,TYPE_NAME,INTEGER_IDX) VALUES (?,?,?,?,?) 
NestedThrowables: 
java.sql.BatchUpdateException: Incorrect string value: ‘\xC2\x8A\xC2\xA8\xC3\xA7…’ for column ‘COMMENT’ at row 1 
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask 
———

解决方案:数据库编码为latin1,COLUMNS表和TABLE_PARAMS表编码设定为UTF8

1、首先按照latin1编码建立hive的meta数据库;

2、修改hive-default.xml的连接编码为UTF8;

<property> 
  <name>javax.jdo.option.ConnectionURL</name> 
  <value>jdbc:mysql://IP:3306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8</value> 
  <description>JDBC connect string for a JDBC metastore</description> 
</property>

3、然后进入数据库执行以下两条SQL语句:

该语句将HIVE的COLUMNS 表的column 列改成UTF8编码
alter table COLUMNS modify column COMMENT varchar(256) character set utf8
该语句将HIVE的TABLE_PARAMS 表的PARAM_VALUE 列改成UTF8编码
alter table TABLE_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8

执行完后用hive -f create_table.sql 中文乱码没有出现,进入数据库执行desc table;语句也没有出现乱码。

问题解决。

======================================================================================

hive metadata 存mysql 注释中文乱码的有关



hive metadata 存mysql 注释中文乱码的问题

hive metadata 存mysql 注释中文乱码的问题
########### hive 中文乱码的问题#############
解决方案:数据库编码为latin1.将一下表的字段(涉及注释的字段都改)编码设定为UTF8

1、然后进入数据库执行以下5条SQL语句:

(1)修改表字段注解和表注解

alter table COLUMNS_V2 modify column COMMENT varchar(256) character set utf8

alter table TABLE_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8

(2) 修改分区字段注解:

 alter table PARTITION_PARAMS  modify column PARAM_VALUE varchar(4000) character set utf8 ; 

alter table PARTITION_KEYS  modify column PKEY_COMMENT varchar(4000) character set utf8; 
(3)修改索引注解:
alter table  INDEX_PARAMS  modify column PARAM_VALUE  varchar(4000) character set utf8;
 
2、修改hive连接mysql的连接为utf-8<property> 
   <name></name> 

  <value>jdbc:mysql://IP:3306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8</value> 
  <description>JDBC connect string for a JDBC metastore</description> 
</property>


<think>好的,我现在需要解决用户提到的Spark SQL写入Hive后出现UTF-8乱码的问题。首先,我需要回忆一下可能的原因以及常见的解决方案。 用户的问题是关于Spark写入Hive后数据乱码,编码问题通常涉及几个方面:数据源本身的编码、Spark处理时的编码配置、Hive表的元数据设置,以及Hive本身或底层存储(比如HDFS)的编码设置。此外,还要考虑客户端工具显示数据时的编码是否正确。 首先,数据源方面。如果数据源文件的编码不是UTF-8,比如是GBK或其他编码,而Spark在读取时没有指定正确的编码格式,就会导致乱码。这时候需要检查读取数据时的编码设置,例如在使用spark.read.csv()时是否指定了.option("encoding", "UTF-8")。如果数据源本身没问题,那么可能是后续步骤的问题。 接下来是Spark的配置。Spark在处理数据时,可能会涉及到序列化或数据转换过程中的编码问题。需要确保Spark的默认编码设置为UTF-8。可以通过配置spark.sql.session.timeZone或者设置环境变量来确保时区和编码正确。例如,设置SparkSession的配置项,如.config("spark.sql.parquet.char.enabled", "true"),不过这个可能和具体的数据格式有关,比如Parquet或ORC是否支持正确的字符编码。 然后是Hive表的元数据。创建Hive表时,需要指定正确的字符集和排序规则。例如,在创建表的时候使用COMMENT指定编码,或者设置表的属性,如TBLPROPERTIES (&#39;serialization.encoding&#39;=&#39;UTF-8&#39;)。Hive在读取存储数据时,会根据这些设置来解码数据,如果设置不正确,会导致乱码存储层的编码问题也不可忽视。Hive表的数据通常存储在HDFS上,而HDFS本身并不关心文件的编码,但生成文件时的编码是否正确很重要。比如,如果Spark在写入数据时使用的是UTF-8,但Hive表预期的是其他编码,就会出问题。需要确保写入和读取的编码一致。 此外,客户端工具的编码设置也需要检查。比如,使用Hive CLI或者Hue等工具查询时,如果客户端工具的编码不是UTF-8,即使数据正确存储,显示时也会出现乱码。这时候需要调整客户端的设置,比如在连接Hive时指定字符集,或者在终端设置环境变量LANG为en_US.UTF-8等。 可能的解决方案步骤: 1. 检查并确保数据源文件使用UTF-8编码,并在Spark读取时明确指定编码格式。 2. 配置Spark的默认编码为UTF-8,可以通过SparkSession的配置项设置。 3. 在创建Hive表时,指定字符集为UTF-8,例如设置表属性。 4. 确保写入Hive的数据在存储使用UTF-8编码,比如在写入时指定文件编码选项。 5. 验证Hive元数据是否配置正确,特别是与编码相关的属性。 6. 检查客户端工具的编码设置,确保其支持UTF-8显示。 另外,还需要考虑Hive元数据存储(如MySQL)的编码设置。如果Hive元数据库(如MySQL)没有使用UTF-8编码,存储的表注释或字段注释可能会出现乱码,但这可能影响的是元数据而非实际数据。不过这也需要确认,比如检查MySQL的字符集配置是否为utf8mb4。 还有可能需要检查的是Hive的配置文件中是否有关于编码的设置,比如hive-site.xml中的hive.default.file.encoding是否设置为UTF-8。 对于Spark写入Hive的具体操作,比如使用df.write.saveAsTable时,是否需要额外的参数来指定编码?可能需要查阅Spark文档,看看是否有相关的写入选项可以强制使用UTF-8编码。例如,在使用text格式时,编码可能更关键,而Parquet或ORC这类二进制格式可能内部已经处理了编码问题,但也不排除配置问题。 此外,当数据从Spark写入Hive时,数据可能被存储为文本文件(如TEXTFILE格式),这时候文件的编码就非常重要。如果保为TEXTFILE,需要确保文件本身是UTF-8编码的。而如果使用其他格式如PARQUET,可能编码问题较少,但字段的元数据是否正确设置也需要检查。 可能的测试步骤: 1. 创建一个简单的测试数据集,明确使用UTF-8编码保,然后用Spark读取并写入Hive,观察是否仍有乱码。 2. 检查写入后的HDFS文件,直接查看文件内容是否乱码,以确定是存储问题还是读取/显示问题。 3. 在Hive中执行查询并将结果输出到文件,再用支持UTF-8的编辑器查看,排除客户端显示问题。 如果以上步骤都检查过,仍然乱码,可能需要更深入的排查,比如Spark和Hive的日志,是否有编码转换的误或警告信息。或者考虑使用其他工具(如Hive的LOAD DATA命令)直接导入数据,看看是否同样出现乱码,以确定问题是否出在Spark的写入环节。 总结来说,解决乱码问题需要从数据源头到最终显示的整个流程逐一排查,确保每个环节都正确配置了UTF-8编码。</think>### Spark SQL写入Hive后UTF-8乱码解决方案 #### 1. 检查数据源头编码 确保输入文件的编码格式为UTF-8。若数据源为CSV/JSON等文本文件,读取时需显式指定编码: ```python df = spark.read.csv("path/to/file.csv", encoding="UTF-8") ``` #### 2. 配置Spark编码参数 在SparkSession初始化时设置全局编码参数: ```python spark = SparkSession.builder \ .appName("UTF8Fix") \ .config("spark.sql.parquet.char.enabled", "true") # 对Parquet格式支持字符类型 .config("spark.sql.hive.convertMetastoreParquet.encoding", "UTF-8") \ .enableHiveSupport() \ .getOrCreate() ``` #### 3. 设置Hive表编码属性 建表时指定字符集和序列化编码: ```sql CREATE TABLE my_table ( id INT, content STRING ) STORED AS ORC TBLPROPERTIES ( &#39;serialization.encoding&#39;=&#39;UTF-8&#39;, &#39;orc.charset&#39;=&#39;UTF-8&#39; ); ``` #### 4. 强制指定文件写入编码 写入数据时,对TEXTFILE格式显式设置编码: ```python df.write.format("text") \ .option("encoding", "UTF-8") \ .saveAsTable("my_table") ``` #### 5. 验证Hive元数据编码 检查Hive元数据库(如MySQL)的字符集配置,需支持UTF-8: ```sql SHOW VARIABLES LIKE &#39;character_set_database&#39;; # 需返回utf8mb4 ``` #### 6. 客户端工具编码检查 在查询时指定字符集,例如通过Beeline: ```bash beeline --outputformat=csv2 --silent=true --charset=UTF-8 ``` #### 完整示例代码 ```python # 初始化SparkSession from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("HiveUTF8Fix") \ .config("spark.sql.hive.convertMetastoreParquet.encoding", "UTF-8") \ .enableHiveSupport() \ .getOrCreate() # 读取UTF-8编码的CSV文件 df = spark.read.csv("hdfs:///data/input.csv", header=True, encoding="UTF-8") # 写入Hive表 df.write.mode("overwrite") \ .format("orc") \ .option("charset", "UTF-8") \ .saveAsTable("default.my_table") ``` #### 关键排查点 1. **HDFS文件验证**:直接查看HDFS文件内容是否乱码 ```bash hdfs dfs -cat /user/hive/warehouse/my_table/part-00000 | head ``` 2. **Hive表属性检查**: ```sql SHOW TBLPROPERTIES my_table; ``` --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值