项目打包到服务器运行时报错

本文针对使用Spark Streaming进行实时计算时遇到的常见错误进行了详细解析,并提供了有效的解决方案,包括pom文件配置调整、缺少jar包导致的类找不到错误以及如何正确加载外部jar包。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在使用Spark_streaming实时计算一些指标,将jar包打到服务器上去遇见了一些错误

mvn clean package -DskipTests

1,`error:HbaseUtils is not a member of package com.spark_streaming.project.utils`

这个错误你要去看你的pom文件中:

 <sourceDirectory>src/main/scala</sourceDirectory>
 <testSourceDirectory>src/test/scala</testSourceDirectory>

需要将这两个注释掉

2,提交spark任务作业

spark-submit --master local[5] \
--class com.spark_streaming.project.spark.ChannelHot \
jar包的url \
参数  \

运行报错

error:ClassNotFoundException:org.apache.spark.streaming.kafka.KafkaUtils$

类找不到错误,在本地开发的时候是可以找到的。但是打包找不到,也就是少了jar包

  spark-submit --master local[5] \
    --class com.spark_streaming.project.spark.ChannelHot \
    -- packages org.apache.spark:spark-streaming-kafka-0-8_2.11:2.2.0 \
    jar包的url \
    参数  \

3第三个报错:

error:NoClassDefFoundError:org/apache/hadoop/hbase/client/HbaseAdmin

通过–jars将外部的jar包加进去,在这里介绍一个小方法,加所有的jar包

  spark-submit --master local[5] \
    --jars  $(echo  /home/hadoop/app/hbase-1.2.0-cdh5.7.0/lib/*.jar  |  tr  ' '  ',' )  \
    --class com.spark_streaming.project.spark.ChannelHot \
    -- packages org.apache.spark:spark-streaming-kafka-0-8_2.11:2.2.0 \
    jar包的url \
    参数  \
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值