解决Maven包依赖冲突导致IDEA中Maven报红色警告线(omitted for conflict with...)问题

本文详细解析Maven中出现依赖版本冲突的原因,并提供具体解决步骤,通过修改pom.xml排除低版本依赖,避免Classloader加载顺序导致的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 情景再现:
    今天工作时用IDEA从svn上down个项目,完成后点击重新导入所有maven项目后,maven报了红色警告线错误,如图:
    在这里插入图片描述
    最终的错误信息为:“omitted for conflict with 1.1”。大致意思是这个javax.activation:activation:1.02版本与1.1版本存在依赖冲突。

  2. 原因分析:
    平时对maven不是特别了解,在一番搜索学习后,大致明白了其中的问题所在:
    出现版本冲突的原因是因为由于Maven具有依赖传递性,所以当你引入一个依赖类的同时,其身后的依赖类也一起如过江之鲫纷至沓来了

    举个例子:
      A依赖于B及C,而B又依赖于X、Y,而C依赖于X、M,则A除引B及C的依赖包下,还会引入X,Y,M的依赖包(一般情况下了,Maven可通过<scope>等若干种方式控制传递依赖)。
      这里有一个需要特别注意的,即B和C同时依赖于X,假设B依赖于X的1.0版本,而C依赖于X的2.0版本,A究竟依赖于X的1.0还是2.0版本呢? 这就看Classloader的加载顺序了,假设Classloader先加载X_1.0,而它就不会再加载X_2.0了,如果A恰恰希望使用X_2.0呢,血案就这样不期而遇了。就会出现了“omitted for conflict with…”依赖版本冲突的问题。

  3. 解决方法:
    解决依赖版本冲突的方法其实很简单,将不想要或低版本的传递依赖去除掉即可
    比如我这个项目的maven依赖中错误如图中显示的已经很明确了,同时存在两个不同版本的依赖类“javax.activation:activation:1.1”与“javax.activation:activation:1.02”,由依赖关系可以看出,二者都是由依赖“org.codehaus.xfire:xfire-all:1.2.6”引入的,那么我们pom.xml文件中找到这个依赖,加入如下配置项代码,将低版本的传递依赖包去除掉就ok了。

    <dependency>
            <groupId>org.codehaus.xfire</groupId>
            <artifactId>xfire-all</artifactId>
            <version>1.2.6</version>
            <!-- 去除版本不一致的传递依赖包 -->
            <exclusions>
                <exclusion>
                    <groupId>javax.activation</groupId>
                    <artifactId>activation</artifactId>
                    <version>1.0.2</version>
                </exclusion>
            </exclusions>
        </dependency>
    

    去除掉后刷新maven即可,如图,红色警告线消失,低版本依赖灰飞烟灭~
    在这里插入图片描述


后记:
搜索资料时在网上看到关于maven的一段话,觉得很有意思,记录下来:

如果你爱他,就请让他用Maven,因为那里是天堂,
如果你恨他,就请让他用Maven,因为那里是地狱。
Maven对于新手来说是《步步惊心》,因为它包罗万象,博大精深,当你初来乍到时,你就像一个进入森林的陌生访客一样迷茫。
Maven对于老手来说是《真爱配方》,因为它无所不能,利如刀锋,使用Maven做开发,如饮美酒如悦美人。

我要好好学习了解一下Maven,以后使用Maven开发时,饮美酒、悦美人,哈哈哈 ^_^。

内容概要:本文详细比较了GPU、TPU专用AI芯片在大模型推理优化方面的性能、成本及适用场景。GPU以其强大的并行计算能力和高带宽显存,适用于多种类型的神经网络模型和计算任务,尤其适合快速原型开发和边缘计算设备。TPU专为机器学习设计,擅长处理大规模矩阵运算密集型任务,如Transformer模型的推理,具有高吞吐量和低延迟特性,适用于自然语言处理和大规模数据中心的推理任务。专用AI芯片通过高度定制化架构,针对特定神经网络模型进行优化,如卷积神经网络(CNN),在处理特定任务时表现出色,同时具备低功耗和高能效比的优势,适用于边缘计算设备。文章还介绍了各自的优化工具和框架,如CUDA、TensorRT、TPU编译器等,并从硬件成本、运营成本和开发成本三个角度进行了成本对比。 适合人群:从事人工智能、深度学习领域的研究人员和技术人员,尤其是对大模型推理优化感兴趣的读者。 使用场景及目标:①帮助读者理解GPU、TPU和专用AI芯片在大模型推理中的优缺点;②为选择适合的硬件平台提供参考依据,以实现最优的推理性能和成本效益;③介绍各种优化工具和框架,帮助开发者高效部署和优化模型。 其他说明:本文不仅涵盖了硬件架构特性,还深入探讨了优化技术和应用场景,旨在为读者提供全面的技术参考。在选择硬件平台时,需综合考虑具体任务需求、预算限制及开发资源等因素。
评论 15
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值