Spark开发 Java程序运行时提示异常:System memory 107374182 must be at least 471859200

博客指出spark1.5或1.6以上版本存在系统内存过小问题,并给出解决方法。通过修改源程序,设置SparkConf并配置“spark.testing.memory”为大于512M的值(单位Byte)来解决该问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

原因:系统内存过小(spark1.5或者1.6以上有该问题)
解决方法如下:
源程序:
public static void main(String[] args) {
try(final SparkSession spark = SparkSession
.builder()
.master(“local”)
.appName(“JavaLocalWordCount”)
.getOrCreate()) {
改为
public static void main(String[] args) {
SparkConf conf = new SparkConf();
conf.set(“spark.testing.memory”, “107374182”);//单位Byte,大于512M
try(final SparkSession spark = SparkSession
.builder()
.master(“local”)
.appName(“JavaLocalWordCount”)
.config(conf)
.getOrCreate()) {

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值