Generalizing Large Language Models for E-commerce from Large-scale, High-quality Instruction Data

828 篇文章

已下架不支持订阅

本文提出了一种新的电子商务通用语言模型eCeLLM,它通过大规模指令数据集ECInstruct进行训练,提高了在电子商务场景中的泛化能力。实验结果显示,eCeLLM在领域内和领域外任务上均超越了包括GPT-4在内的基线模型,展现出强大的通用性和可扩展性。ECInstruct数据集和eCeLLM模型已开源,为电子商务领域的自然语言处理提供了新工具。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《eCeLLM: Generalizing Large Language Models for E-commerce
from Large

eCeLM:从大规模、高质量的指令数据中概括电子商务的大型语言模型

摘要

尽管在开发有效的电子商务模型方面付出了巨大努力,但传统的电子商务模式在广义电子商务建模方面的成功有限,并且在新用户和新产品方面表现不佳——这是一个典型的领域外泛化挑战。同时,大型语言模型(LLM)在泛化建模和领域外泛化方面在许多领域都表现出了卓越的性能。为了充分释放他们在电子商务中的力量,在本文中,我们构建了ECConstruction,这是第一个开源、大规模、高质量的电子商务基准指令数据集。利用ECInstruct,我们通过指令调优通用LLM来开发eCeLLM,这是一系列电子商务LLM。我们的综合实验和评估表明,eCeLLM模型在域内评估中大大优于基线模型,包括最先进的GPT-4和最先进的特定任务模型。此外,eCeLLM对域外环境表现出极好的可推广性,包括看不到的产品和看不见的指令,突出了其作为通用电子商务模型的优势。ECInstruct数据集和eCeLLM模型在为电子商务提供多功能、有效的LLM方面都显示出巨大的潜力。ECInstruct和eCeLLM模型可通过https://ninglab.github.io/eCeLLM开放访问。

<

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值