
Spark
Spark
wufabao
这个作者很懒,什么都没留下…
展开
-
Spark Streaming消费Kafka,自定义Offset执行报错 No current assignment for partition topicBC-3
报错内容java.lang.IllegalStateException: No current assignment for partition topicBC-3 at org.apache.kafka.clients.consumer.internals.SubscriptionState.assignedState(SubscriptionState.java:259) at org.apache.kafka.clients.consumer.internals.SubscriptionStat原创 2022-02-08 20:04:46 · 11502 阅读 · 0 评论 -
Spark SQL连接Hive的一些常见报错
错误一:Unable to locate hive jars to connect to metastore. Please set spark.sql.hive.metastore.jars.解决方案:将JDK11切换为JDK8,问题解决。JDK11和Spark/Hive应该存在版本兼容性问题错误二:连接成功后只显示一个default数据库解决方案:把HIVE_HOME/conf目录下的hive-site.xml文件拷贝到本地IDEA的maven项目的resources目录下完美解决原创 2022-02-05 23:51:22 · 15248 阅读 · 0 评论 -
Spark集群Standalone模式下spark-shell控制台println不显示问题
在Standalone模式下,RDD操作所在的机器未必是提交任务的机器,所以输出RDD元素在提交任务的机器未必可以显示,解决方案:先把数据collect收集起来,然后打印收集的数据(生产环境不建议使用collect算子),可以正常打印:...原创 2022-01-11 09:23:21 · 1575 阅读 · 0 评论 -
Spark集群Standalone模式下从本地文件系统创建RDD报错找不到本地文件
scala> val lines = sc.textFile("file:///root/wc.txt")lines: org.apache.spark.rdd.RDD[String] = file:///root/wc.txt MapPartitionsRDD[11] at textFile at <console>:24scala> lines.count[Stage 7:>原创 2022-01-07 13:32:25 · 11115 阅读 · 0 评论 -
Spark on Yarn集群,运行作业报错Failed to send RPC RPC 5631266366836363375 to /192.168.80.122:52864: java.nio.
22/01/06 22:10:05 INFO BlockManager: Using org.apache.spark.storage.RandomBlockReplicationPolicy for block replication policy22/01/06 22:10:05 INFO BlockManagerMaster: Registering BlockManager BlockManagerId(driver, linux121, 34370, None)22/01/06 22:10:0原创 2022-01-06 23:50:06 · 13119 阅读 · 0 评论