求解SparkSQL使用join连接两个JSON数据时所遇到的问题

在尝试使用SparkSQL的join操作连接两个JSON数据文件时,遇到了AnalysisException,错误指出无法解析'name'列。问题在于输入列中只有'_corrupt_record'。通过修正代码,将学生基本信息从数据集中改为从外部JSON文件导入,成功解决了问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

使用join算子将两个数据进行连接时报的错误信息

报错信息如下:

Exception in thread "main" org.apache.spark.sql.AnalysisException: cannot resolve '`name`' given input columns: [_corrupt_record]; line 1 pos 40;
'Project ['name, 'age]
+- 'Filter 'name IN (mzk,root,admin)
   +- SubqueryAlias student_info
      +- LogicalRDD [_corrupt_record#25]

完整的代码如下:

package com.mzk.sql

import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.types.StructType
import org.apache.spark.sql.types.StringType
import org.apache.spark.sql.types.StructField
import org.apache.spark.sql.types.IntegerType
import org.apache.spark.sql.Row

object JSONDataSource {
  def main(args: Array[String]): Unit = {
    //创建SparkSession、SparkContext、sqlContext
    val spark = SparkSession.builder().appName("JSONDataSource").master("local").getOrCreate()
    val sc = spark.sparkContext
    val sql = spark.sqlContext
  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值