软件工程培训第六天(spark的简单使用和hive的用法)

一、学习过程

 今天讲了spark的安装和spark的运行机制,然后老师重点将了下spark中的RDD然后就是我们自己联系word上的实例和例子的时间了

二、总结

  Spark我感觉用一天时远远不够的,老师文档就给我们发了七八个,这一下午也就看完了一个,今天我把RDD的20多个基本的函数看了一遍,然后按照word上的例子进行了总结,感觉RDD就是在用一些别人写好的mapreduce函数,他的代码量要比直接写mapreduce少的多,也正因为这个,对于RDD的一些函数的参数理解起来有一点点困难,不过一下午也不是白过的,对于那二十多个常用函数我已经基本上了解,这也是今天最主要的收获。

三、问题汇总

   Spark的内容很多,感觉今天学到的东西离可以实际的去写一个简单的实际需求还差的很远,spark中的RDD与其他大数据模块的数据传递连接,以及他们之间的区别还没有弄清楚

三、思维导图

 

转载于:https://www.cnblogs.com/837634902why/p/11478171.html

文档中未直接提及spark on hivehive on spark的相关信息,但可基于对HiveSpark的一般性理解进行分析。 ### 区别 - **架构侧重点**:spark on hive是以Hive作为数据存储管理的基础,Spark作为计算引擎,侧重于利用Spark的快速计算能力处理Hive中的数据;而hive on spark则是以Spark为核心计算框架,Hive作为查询语言接口,更强调通过Hive的SQL-like语法来使用Spark的计算能力。 - **数据处理流程**:spark on hive先从Hive中读取数据,然后将数据交给Spark进行计算;hive on spark则是用户通过Hive提交查询,Hive将查询转换为Spark作业进行执行。 ### 原理 - **spark on hive**:Spark提供了与Hive的集成接口,通过这个接口可以直接访问Hive的元数据数据文件。Spark读取Hive表中的数据后,利用其RDD(弹性分布式数据集)或DataFrame等抽象进行分布式计算。 ```python # 示例代码,展示Spark访问Hive表 from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("SparkOnHiveExample") \ .config("hive.metastore.uris", "thrift://localhost:9083") \ .enableHiveSupport() \ .getOrCreate() # 读取Hive表 df = spark.sql("SELECT * FROM my_hive_table") df.show() ``` - **hive on spark**:Hive在接收到用户的查询请求后,将查询计划转换为Spark作业。Hive使用Spark的API将查询任务分解为一系列的Spark操作,然后由Spark集群执行这些操作。 ### 应用场景 - **spark on hive**:适用于需要对Hive中的大规模数据进行复杂分析计算的场景,如机器学习、深度学习等需要快速迭代计算的任务。 - **hive on spark**:对于熟悉Hive SQL的用户,希望利用Spark的高性能计算能力而不改变原有查询习惯的场景,如数据仓库的报表生成、数据分析等。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值