
这是面向小白用户的一个超级简单的微调大模型示例,通过这个例子将得到一个速度翻倍,并可以包含自己业务知识数据的微调后llama3模型,可用于本地部署构建私有化的AI智能体。very 的 nice
首先请准备好google账号和网络环境,这个示例基于goolge colab的免费算力完成。
https://colab.research.google.com/drive/135ced7oHytdxu3N2DNe1Z0kqjyYIkDXp?usp=sharing
使用浏览器打开上方链接

将点击copy to Drive复制笔记到自己账号下的网盘,点击之后弹出新窗口
我们就在这个弹出的新窗口操作,界面都是英文不多解释,跟着操作就好
点击第一个运行小箭头,安装基础环境,要稍等片刻的时间

运行结束后左侧会出现一个绿色小勾

环境安装好就开始微调训练,继续运行第二段代码,代码中默认的加载llama3,不需要做任何修改直接执行,点击三角符号按钮

点击运行之后开始下载模型和一些必要的文件,速度很快

片刻之后出现绿色小勾就是运行完成

然后继续向下,执行第三段代码

这一段一秒钟就OK了,继续向下运行第四段代码加载训练数据集,我们还是使用笔记中的默认数据集。先把所有默认设置跑通拿到一个微调后的模型,以后替换其他模型,使用自己的数据集都是换换参数的事情,今天就来最简单的,一路点击就OK

老规矩还是出现绿色小勾表示运行结束

这个数据集我下载到了本地,主要就是为了截个图给大家看一下,一共25W行,json结构的数据

后期使用自己的数据进行微调,按照这个格式整理好就可以,关于私有数据集的清洗和格式化这就不展开讲了。
环境,模型,数据集都加载完成了,接下来就是训练时间了
继续向下执行代码,配置一些必要的参数

出现小绿勾完成后,继续向下

下面这一段就是看一下当前可用的内存

这里正式开始训练:根据上面设置的默认参数,训练一共60步,需要稍候片刻,在这段等待的时间里你就需要开始思考一个问题,一万个人类中有几个人微调过大模型,而你即将在片刻之后成为那个万中无一的人

7分36秒,运行完成

接着向下,运行一下打印过程信息的代码

然后就可以和我们微调过的大模型对话了,笔记中默认给了一个问题,生成斐波那契数列,它的参数结构是不是跟我们的数据集结构一样的,这里你可以编辑代码用数据集指令替换掉默认指令,观察一下微调后的结果
公众号后台发送 “数据集” 获取数据集下载链接

接下来下面的代码还是一段打印斐波那契数列的代码,不同的是这是一段流式输出的示例,就是我们常见的一边生成一边输出

到这里,模型的微调就完成了,也测试了可以正常的运行
接下来将微调结果保存为lora模型,默认名称lora_model

保存之后我们加载保存的模型测试一下


在这段代码中可以反复的修改提示词然后执行,来测试不同的结果。
整个微调的过程就基本完成了,可以看出并不是那么复杂,虽然很多小白同学全程不懂在运行什么,但中间没有出错,得到了正确的结果。
今天的主题是只带过程不讲细节,之后计划做一篇详细的本地微调大模型,自定义数据集,并结合第三方框架搭建私有智能体应用
如何学习AI大模型?
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。
1819

被折叠的 条评论
为什么被折叠?



