读了百度上的一些关于Spark on hive 与 Hive on Spark 的区别的文章,感觉理解太复杂,自己总结一下
Spark on Hive :数据源是:hive Spark 获取hive中的数据,然后进行SparkSQL的操作 (hive只是作为一个spark的数据源)。
Hvie on Spark :(数据源是hive本身) Hvie 将自己的MapReduce计算引擎替换为Spark,当我们执行HiveSQL(HQL)时
底层以经不是将HQL转换为MapReduce任务,而是跑的Spark任务(即:将HQL转换为Spark任务)。
我猜想你已经明白了哈哈哈~~~,不明白说明你的Hive和Spark学的都有问题。