IDEA使用SparkSession读取Json文件报错 A master URL must be set in your configuration

本文主要讲述了学习SparkSql时遇到的报错问题。在本地运行SparkSession读取json文件时,报A master URL must be set in your configuration错误,原因是未设置master提交方式,或把SparkContext写在main方法外。同时给出两种解决方法,一是在run configration中添加,二是创建SparkConf和SparkContext并设置master。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.错误场景

今天在学习SparkSql的时候 看了Spark源码的例子 在本地运行SparkSession读取json文件的时候 , 报 A master URL must be set in your configuration 这个错误
, 当时的代码如下

public class SqlDemo01 {

    public static void main(String[] args) {

        // SparkSqlContext , HiveContext(Spark1.3以上建议用)
        // 1.创建一个SparkSession对象 , 类始于SparkContext
        SparkSession sparkSession = SparkSession
                .builder() // builder 是用来实例化一个SparkSession对象的
                .appName("SQL")
                .config("spark.some.config.option" , "some-value")
                .getOrCreate();


        runBasicDataFrameExample(sparkSession);
        // 关闭SparkSession
        sparkSession.stop();
    }

    // 使用DataFrame 读取数据
    private static void runBasicDataFrameExample(SparkSession sparkSession){

        // 从 resources 中读取json数据
        String dataPath = "SparkSql/src/main/resources/people.json";
        Dataset<Row> df = sparkSession.read().json(dataPath);

        // 列出 DataFrame 的所有数据
        df.show();
    }
}

然后就报了 A master URL must be set in your configuration 这个错误

原因是没有设置 master 的提交方式 (源码给的例子没有设置, 误以为不需要设置)

  1. 在查询报错原因时发现还有一种 情况就是把 SparkContext 写到main方法外面, 当做公用的对象也会出现这个问题 这里记下来 以后避免 错误
2.解决方法
  1. 方法一 :
    直接添加 run configration中添加 -Dspark.master=local 在这里插入图片描述
  2. 方法二
    在创建SparkSession实例之前 创建 SparkConf 和 SparkContext 并设置master
    代码如下
    
        // 一定要加上 , 配置Master为本地
        SparkConf conf = new SparkConf()
                .setAppName("Sql")
                .setMaster("local");
        JavaSparkContext sc = new JavaSparkContext(conf);
    
        // SparkSqlContext , HiveContext(Spark1.3以上建议用)
        // 1.创建一个SparkSession对象 , 类始于SparkContext
        SparkSession sparkSession = SparkSession
                .builder() // builder 是用来实例化一个SparkSession对象的
                .appName("SQL")
                .config("spark.some.config.option" , "some-value")
                .getOrCreate();
    
    
        runBasicDataFrameExample(sparkSession);
        // 关闭SparkSession
        sparkSession.stop();
    

这样既可解决

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

兀坐晴窗独饮茶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值