【sparksql调用hive】【效率高于hive】 1.拷贝hive配置文件hive-site.xml到spark的conf目录下; 2.拷贝mysql jdbc驱动到spark的jars目录下; 调用方式:spark-sql -e "select sum(id) from sql2g;" 【hive部署】 https://blog.youkuaiyun.com/waplys/article/details/88828784