在大数据技术中,Hive 擅长元数据管理,而 Spark 的专长是高效的分布式计算,二者的结合将呈现’1+1>2’的效果。当Spark 把Hive 当成是一种元信息的管理工具,需要配置"spark with hive"。
本人配置完后在用spark连接hive读写数据时,出现了以下两种错误:
1.Caused by: java.sql.SQLException: Unable to open a test connection to the given database. JDBC url = jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true