
spark
文章平均质量分 73
技多不压身
不掉头发的开发,哈哈~~
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
spring boot整合spark,基于yarn运行提交spark任务 spark on yarn
springboot整理spark,基于yarn提交job任务原创 2021-12-31 15:09:30 · 10901 阅读 · 13 评论 -
org.apache.spark.network.protocol.MessageWithHeader.touch(Ljava/lang/Object;)Lio/netty/util/Referenc
springboot 整合spark ,运行在yarn,各种问题…最近需求需要这样做一个分析平台,之前做过整合,是在standalone模式了,想了解的,可以关注一下,往下滑动!先看下这个问题,之前没遇到过啊,为啥这次整合问题这么多,idea本地测试少量数据sparkSql,几百兆吧。sql代码 :val livingSql = """ | select | count(imsi) livingCounts | from原创 2021-09-29 17:05:28 · 331 阅读 · 0 评论 -
unsafe symbol Unstable (child of package InterfaceStability) in runtime reflection universe
问题:java.lang.AssertionError: unsafe symbol Unstable (child of package InterfaceStability) in runtime reflection universe at scala.reflect.internal.Symbols$Symbol.<init>(Symbols.scala:237) at scala.reflect.internal.Symbols$TypeSymbol.<init>原创 2021-06-16 16:04:16 · 1104 阅读 · 0 评论 -
sparkSql两表join关联的五种方式实现及原理
对于Spark来说有3中Join的实现,每种Join对应着不同的应用场景:Broadcast Hash Join : 适合一张较小的表和一张大表进行joinShuffle Hash Join : 适合一张小表和一张大表进行join,或者是两张小表之间的joinSort Merge Join : 适合两张较大的表之间进行join前两者都基于的是Hash Join,只不过在hash join之前需要先shuffle还是先broadcast。下面将详细的解释一下这三种不同的join的具体原理。Has原创 2021-05-07 17:43:45 · 9039 阅读 · 3 评论 -
java.util.concurrent.TimeoutException: Futures timed out after [300 seconds] spark广播变量超时
错误出处:在开发SparkSql 过程中,数据量比较大,进行处理操作问题:Caused by: java.util.concurrent.TimeoutException: Futures timed out after [300 seconds] at scala.concurrent.impl.Promise$DefaultPromise.ready(Promise.scala:219) at scala.concurrent.impl.Promise$DefaultPromise.resul原创 2021-02-25 10:35:23 · 8794 阅读 · 2 评论 -
spring boot整合spark,集群模式或local模式运行,http请求调用spark API,启动job任务配置、优化spark配置等
需求描述:前后端分离系统,用SpringBoot整合Spark API,调用大量数据(几百GB,上TB)进行处理计算,单机环境难以达到性能要求,此,需整合直接调用spark跑程序,且在集群跑…在此,一台测试服务器模拟,搭建伪分布spark集群,用standalone模式运行。文章目录一、集群环境二、项目配置环境一、集群环境包版本: 1.java1.8 2.spark 2.3.1 3.scala 2.11 4.CentOS Linux release 7.3.1611 (Core)原创 2021-01-22 11:37:45 · 11675 阅读 · 34 评论 -
遇到报错:ERROR spark.SparkContext: Error initializing SparkContext
java.lang.IllegalArgumentException: System memory 100663296 must be at least 4.718592E8. Please use a larger heap size.在Eclipse里开发Spark项目,尝试直接在spark里运行程序的时候,遇到下面这个报错: 很明显,这是JVM申请的memory不够导致无法启动S...转载 2019-01-03 15:38:56 · 5975 阅读 · 0 评论 -
Exception in thread "main" java.lang.NoSuchMethodError: org.apache.spark.mllib.classification.Logist
在编写spark机器学习算法中的逻辑回归时,遇到此问题,进而进行总结一下,望指点! ! !问题如下:Exception in thread "main" java.lang.NoSuchMethodError: org.apache.spark.mllib.classification.LogisticRegressionWithLBFGS.run(Lorg/apache/spark/rd...原创 2019-03-18 10:55:12 · 626 阅读 · 0 评论