大语言模型简介

部署运行你感兴趣的模型镜像

大语言模型的本质是文字统计大师和模式识别高手,

LLM的全称是large language model,属于基础模型。

它并非”理解“语言,而是通过自监督学习,成为顶尖的文字统计与模式识别大师。

通过海里的数据, GPT-3 通过45TB的数据学习。45TB文本,相当于8万亿词,一个人需要数百年不眠不休才能读完。

为何大语言模型能写诗却算错数,那是因为它擅长模仿文字套路,却不具备人类的因果逻辑和真实世界的感官经验。

一个强大的模型等于海量优质的数据,加上精巧的架构,再加上科学的训练方法。

架构:Transformer, 其核心是”注意力机制“,赋予模型”上帝视角“,能同时关注句中所有词,动态判断关联性。

涌现能力:量变引发质变。

大语言模型擅长:

模式识别与信息处理:文本分类、情感分析、信息提取、高质量翻译等

内容生成与创意辅助:撰写文章、邮件、代码,以及头脑风暴

智能交互与对话:智能客服、虚拟助理、个性化教育辅导等;

第一个大坑: 幻觉

第二个大坑:常识与时效

第三个大坑:偏见与伦理问题

PMF: 理性应用,用对的锤子,敲对的钉子。

适合的场景:

(1)大量重复性的内容生成工作(如营销文案)

(2)需要快速原型设计的创意工作(如UI描述)

(3)繁琐的代码辅助与检查工作

(4)容错率较高的信息处理与对话

不适合的场景

(1)需要100%准确性的关键决策(如医疗诊断)

(2)需要最新实时信息的任务(如新闻报道)

(3)需深度专业判断和担责工作(如法官判案)

(4)涉及重大金融风险的自动化交易。

大模型微调

模型微调的概念:

通才模型的盲区,像百科全书,知识面广博,能谈天说地、写代码,但缺乏深度。根源在于”懂得多 ≠懂得精“。

模型微调,将通才塑造为专家。

模型微调的方法:

预训练模型,是通才,(通才)

模型微调,是注入领域数据,

微调后模型(专家)

第一步:参数优化

无需重训全部权重,仅调整1%~10%的关键参数,即可塑造专家模型。

LoRA技术: 通过低秩矩阵注入领域知识,如同给通才戴上一副“专家眼镜”,高效且低成本。

第二步:数据精炼

低效路径:海量泛数据

指望模型从维基百科、百度百科学习专业知识,如同大海捞针,效率低下且易产生幻觉。

高效路径:小而精数据

用1000条标准法律文书或1000条专业财报,直接告诉模型“什么才算对”

第三步:领域约束

天马行空:通用模型,自由发挥但易“胡说八道”;

绝对正确:约束后模型,输出可溯源,可验证

模型微调的策略:

策略一:QLoRA

针对硬件拮据场景,QLoRA通过量化(Quantization)与LoRA结合,

大幅降低训练门槛。显存占用减少90%,训练速度提升3-4x。

策略二:Prompt Engineering(提示词工程)

PE(Prompt Engineering)是微调的“前置试探”,先验证方向,再决定是否投入资源进行参数层面的“换锁”。

策略三:Llama Factory(微调界的万能工具箱)

LLaMA-Factory: Easy and Efficient LLM Fine-Tuning

支持:LoRA微调,全参微调,RLHF对齐。

大幅降低试错门槛,让零基础用户也能快速实验,对比方案。

模型微调的重要性:

“准、快、好”:

准:谁能精准满足专业场景需求,解决真实世界问题;

快:谁能快速迭代,以最小成本和周期交付可用模型;

好:谁能高质量落地、产生持续的商业价值和社会效益。

AI agent

参考读物:

  1. 《人工智能:现代方法》

  2. 《Intelligent agents:theory and practice》

  3. 《The rise and protential of large language model based agents: a survey>

  4. 《LLM Powered Autonous Agents》

LLM-based Agent的概念框架: 由大脑、感知、行动三个部分组成:

感知模块:负责感知和处理来自外部环境的多模态信息;

大脑模块:作为控制器,承担记忆、思考和决策等基本任务;

行动模块:负责使用工具执行任务并影响周围环境。

Agent=LargeModel + Memory + ActivePlanning + ToolUse

AI Agent vs AI助理聊天机器人 vs AI聊天机器人

您可能感兴趣的与本文相关的镜像

lora-scripts 模型训练工具

lora-scripts 模型训练工具

AI应用
模型微调
PyTorch
TensorRT

lora-scripts 是一款开箱即用的 LoRA 训练自动化工具,封装了数据预处理、模型加载、训练调参、权重导出等全流程,无需手动编写复杂训练代码,支持 Stable Diffusion(图文生成)、LLM(大语言模型)等主流模型的 LoRA 微调,适配新手和进阶用户。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

摩羯座程序员

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值