scala
xwq-csdn
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Intellij IDEA中编写Scala程序报错:Error:scalac: 'jvm-1.8' is not a valid choice for '-target'
在Intellij IDEA中编写Scala程序报错:Error:scalac: ‘jvm-1.8’ is not a valid choice for ‘-target’Intellij IDEA版本是2019.1.3,JDK版本是1.8.0,Scala版本是2.10.5.解决方法:根据以下路径File->Settings -> Build, Execution, Deplo...原创 2019-06-12 20:53:10 · 7308 阅读 · 2 评论 -
org.apache.spark.SparkException: Failed to get broadcast_270_piece0 of broadcast_270
在spark1.6.0中运行代码,出现如下错误:org.apache.spark.SparkException: Failed to get broadcast_270_piece0 of broadcast_270解决方法1.可能是因为spark.cleaner.ttl导致的,spark.cleaner.ttl设置一个清除时间,使spark清除超过这个时间的所有RDD数据,以便腾出空间给...原创 2019-08-05 20:22:12 · 2224 阅读 · 0 评论 -
ERROR util.Utils: uncaught error in thread SparkListenerBus, stopping SparkContext
在spark1.6.0中运行代码,在log中出现如下错误提示:ERROR util.Utils: uncaught error in thread SparkListenerBus, stopping SparkContext这个错误提示可以忽略不记。当我们清理并终止守护进程上下文清理线程时,在执行结束时会打印这个。今后这个错误提示可能会消除,因为它可能会让用户感到困惑。https://...原创 2019-08-07 10:05:42 · 2048 阅读 · 0 评论 -
java.lang.OutOfMemoryError: GC overhead limit exceeded
在spark1.6.0中运行代码,在log中出现如下错误提示:java.lang.OutOfMemoryError: GC overhead limit exceeded这个一般是因为在垃圾回收中占用了大量时间造成的。通常来说,当程序用98%的时间回收了不到2%的堆内存时导致的。通常是设置的堆内存太小,导致没有足够的内存。1.spark.executor.memory 调大参数扩大内存2...原创 2019-08-07 10:59:40 · 583 阅读 · 0 评论 -
org.apache.spark.SparkException: Task not serializable
在spark shell中运行下述代码: val max_array = max_read_fav_share_vote.collect val max_read = max_array(0)(0).toString.toDouble val max_fav = max_array(0)(1).toString.toDouble val max_share = ma...原创 2019-08-17 16:10:33 · 685 阅读 · 0 评论
分享