- 博客(7)
- 收藏
- 关注
原创 微型语言模型部署教程(三):单轮对话任务微调
本系列博客是学习如在AutoDL何部署和实操开源模型。本篇介绍如何搭建基础环境并安装相关依赖。项目学习:”GitHub - jingyaogong/minimind: 「大模型」3小时完全从0训练26M的小参数GPT,个人显卡即可推理训练!「大模型」3小时完全从0训练26M的小参数GPT,个人显卡即可推理训练!
2024-11-06 10:14:06
665
原创 微型语言模型部署教程(二):数据下载与含义
本系列博客是学习如在AutoDL何部署和实操开源模型。本篇介绍如何搭建基础环境并安装相关依赖。项目学习:”GitHub - jingyaogong/minimind: 「大模型」3小时完全从0训练26M的小参数GPT,个人显卡即可推理训练!「大模型」3小时完全从0训练26M的小参数GPT,个人显卡即可推理训练!
2024-10-28 14:52:40
624
原创 微型语言模型部署教程(一):云服务器选择与依赖安装
本系列博客是学习如在AutoDL何部署和实操开源模型。本篇介绍如何搭建基础环境并安装相关依赖。项目学习:”GitHub - jingyaogong/minimind: 「大模型」3小时完全从0训练26M的小参数GPT,个人显卡即可推理训练!「大模型」3小时完全从0训练26M的小参数GPT,个人显卡即可推理训练!
2024-10-24 10:40:08
945
原创 大模型入门之1 --绘画模型
维度提升时有助于学会更多细节,但模型收敛速度变慢,需要的训练时间更长,也更容易过拟合。较大的Batch_size导致训练速度快,内存大,但收敛慢(需要更多epoch数)dimension = 128 时,输出文件大小为140MB+dimension = 64 时,输出文件大小为70MB+dimension = 32 时,输出文件大小为40MB+收敛:跟原图的相似程度,跟原图越像说明收敛的越好。文本和tag训练集,训练集的准备重中之重。前面命名100代表repeat,默认值是1e-4(0.0001)
2024-10-12 15:53:46
498
1
原创 华为0510 实习笔试
1.截取M中的某一段数字x,和数字N进行k运算 (x k N),如果结果是一个所有位数相同的数,则这段数字有可能就是所找密码,例如x为222,N为3,k为",则计算结果是222*3=666,满足要求,x是所寻目标彩码串之一。k为+或-或中的一种,不考虑除法。解释: 向栈压入80时,10+20+50=80,数据合并后入栈160,压入两个1时,合并为2,最终栈顶至栈底的数字为2和160。第二条路径1->2->5路径下,总耗时为6(1->2耗时)+7(2自身耗时)+20(2-5耗时)+5(5自身耗时)=38秒。
2023-05-11 11:34:26
1025
1
原创 JavaScript数据结构 ---- 二叉树
应用题型:满足(最大,最小,某种要求)的深度、路径、节点和…记忆:根的位置决定什么顺序,左一定在右的前边。
2023-04-25 16:01:07
220
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人