- 博客(6)
- 收藏
- 关注
原创 专为新手设计的deepseek r1模型一键运行+微调镜像!
在与社区交流的过程中,我发现很多对DeepSeek感兴趣的用户并非该领域的专业研究人员,他们可能缺乏深入体验R1模型的技术基础。在对话界面中,我用红框标注的是模型的回答内容,蓝框标注的则是模型的思考过程内容。第2步:在出现的镜像列表里,找到并点击的那个"deepseek-ai/DeepSeek-R1/DeepSeek"镜像 (就是头像是那个红色的,id名字叫xxxiu的那个)数字6,也是最强R1模型 有一说一听别人说运行是是按照moe激活来推理的,反而不需要很大的显存,不过我也没有测试过。
2025-01-31 05:25:15
2525
1
原创 训练任何人!无需动手制作数据集,一键微调大语言模型。
你需要准备音频数据,这个音频数据可以是主播的闲聊内容,或者你的电话录音。实际上LLM模型就是学习你给的数据,以达到你给定的要求的一个神经网络模型。点开后,可以发现里面已经有了一个音频了,这个是我的一个音频示例,如果你手上没有合适的音频,可以用这个测试。那么,回到我们这里,实际上我想要介绍的项目就是这样的一个功能,它可以训练任何你感兴趣的人物,包括名人、历史人物、动漫角色或电影小说中的虚拟人物。模型会将你音频转换为文字的内容进一步处理成这种对话的数据,我们需要的就是,耐心等待模型将你的数据全部制作完成。
2024-10-31 16:19:12
429
原创 对标gpt-4o,支持视频对话的AI开源!
这个项目是我花了半个月时间做的,其实本来5月份就打算发了,但是那个时候gpt4o刚好出来了,他们已经把视频对话功能的应用化了。目前这个算是一个1.0的版本,因为最近太忙了,所以目前功能不多,可玩性不算高。上面就是手机端打开的画面,左上角就是一个你摄像头的视角,你可以通过下方的文字进行交互,目前仅支持打字的方式,后续会逐渐增加语音输入输出。近期事情比较多,大部分在做应用化的场景,所以也趁这段时间找出了一个很久以前的没做完的项目,花了一些时间做了一个带有简单UI界面、配备视频对话的一个AI聊天网站。
2024-09-20 16:28:03
511
2
原创 大语言模型训练“参数”到底改怎么调???
就像你一次处理了8个样本(大批处理大小),但实际上每次只用4个样本的显存。就像分期付款一样,让你显存不够也能享受大批处理的效果。第六个:loraplus_lr_ratio这个是今年出来的一个新的训练算法,旨在传统lora训练方式下。lora+提高了性能(1% ‑ 2% 的改进)和微调速度(高达 ~ 2 倍加速),而计算成本与 LoRA 相同。具体的就不展开说了,只知道它可以大幅缩短模型所训练的时间,同样的步数下拟合的会更加的快。我建议可以设置为8或者16。
2024-07-19 23:02:33
1432
1
原创 给我一分钟,教你推理+训练GLM4全系列模型
我们打开output文件夹,这里面的所有文件都是你刚刚保存的模型,后面的数字就是不同步数下保存的模型。然后save_steps的意思是模型多少步会保存一次的意思,这里我输入的是50 也就是说,模型每50步的时候,会保存一次。最后,可能还有同学要问了,我想要把合并好的模型部署成API,然后调用。由于其中的训练方式有很多,所以我这里就选择其中一种来介绍,其余的内容可以自行操作,里面的教程也十分的简单。这实际上是我提前放进去的文件,方便一些懒得做数据集的人可以直接使用,当然,你也可以全删除,替换成自己的。
2024-07-15 11:41:59
1983
1
原创 如何训练好一个LLM大语言模型?
目前,深度学习的影响非常广泛。AI绘画、AI声音克隆、AI大语言模型等等等等。市面上很多资料文章和视频都非常多。以至于让新手甚至在几个小时就可以掌握。但是,再往上呢?在学习深度学习的这个领域。从0到1并不难。只需要会部署项目,能跑通模型就算入门了。但是想要从1跨越到2。甚至更高。所需要花费的心血可就是另一个层次了。其中更多的是那种捉摸不透的经验主义以及大大小小的信息差。就好比想要训练一个公司的AI客服。看了网上很多的教学文章,不想用RAG和外部知识库等等的功能来搭建。而是想要用大模型训练来训练微调。在成
2024-07-09 07:00:21
892
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人