当前大模型落地几种方式

当前大模型落地几种方式

1.RAG增强式文本检索

基本流程是,先对本地的文件进行分割向量化,构建本地的向量知识库,用户的提问时和向量知识库进行匹配,得到最优答案,然后再调用大模型去进行总结归纳及回复。关键点在文件的分割,同类内容的要放在一块,实施的难点是文件的整理,整理的越细致质量高,回复效果越好。当前主流的工具开源的有ragflow、dify,或者敲代码;常用的场景包括文本搜索、智能客服、内容推荐等。

2.PROMPT提示词工程

就是我们在用大模型时给他加的一些说明,这块为何说是工程呢,要用好能发挥很大的作用,并且用途非常广,上面的RAG,还有微调,在用大模型回答时都需要提示词。

3.分类

利用大模型或小模型完成对自然语言理解和分类,比如情感分析,分析是负面还是正面,意图识别,分析用户的提问的类别,这些现在的大模型基本满足要求,足够大的模型效果好点,对于非常垂直领域的,如果模型识别不好,我们可以选择大模型如1.5B的或者BERT小模型,然后整理出本行业的数据内容,进行微调训练,能达到很好的效果。

4.生成类

这块是当前用的最多的,尤其在Deepseek出来后迎来了爆发期,比如书写文章、图生文或文生图、文生视频,这块基本利用的大模型的能力在进行生成,一般微调的不多,如果是特别垂直领域,大模型没法满足的,可以整理数据集,选取合适模型进行微调训练、强化学习等,提高模型的效果。

最后说明

在实际运用中,以上几种可以独立使用,更多是需要互相的关联使用、交叉使用、或者与我们传统的逻辑规则(如业务逻辑API接口)组合起来,才能解决实际的复杂场景。如coze、dify都是这样的工具,可以通过定制工作流、智能体,把复杂问题拆解、比较、组合,然后得到最优解。
ps:对于模型训练,一般采用的有预训练PT、监督微调训练SFT、强化学习(如rm、PPO、DPO、KTP),基于原有的基础模型、现有的数据集进行微调,训练方法有lora和qlora等。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值