- 博客(9)
- 收藏
- 关注
原创 LangGPT结构化提示词编写实践
近期相关研究发现,LLM在对比浮点数字时表现不佳,经验证,internlm2-chat-1.8b (internlm2-chat-7b)也存在这一问题,例如认为13.8
2024-08-16 10:25:04
340
原创 8G 显存玩转书生大模型 Demo
在简单问答交互试了一下之后,我感觉1.8b的模型还是太小了,玩玩可以,具体做复杂的任务,还是不够的。的介绍,只有20b才基本涌现出了一些智能的感觉,能做一些稍微复杂的任务。至需要几分钟就能把大模型跑起来了,非常的方便。
2024-08-07 15:59:25
865
原创 书生大模型全链路开源开放体系探索之旅
最后,我想说的是,书生大模型全链路开源开放体系不仅是一个技术平台,更是一个连接梦想与现实的桥梁。让我们一起携手,用科技的力量创造更美好的未来!这就是我的书生大模型全链路开源开放体系学习之旅的分享,希望我的笔记和心得能够给你带来一些启发和帮助。如果你也对AI充满热情,那么不妨加入我们,一起探索这个充满无限可能的世界吧!下面是报名链接。
2024-08-07 08:49:15
532
原创 【Stable Diffusion】FID、CLIP、cfg-scales都是什么
FID score 计算生成的图像与原始图像的距离,越小越好。Clip score 计算生成的图像与提示词之间的相关性,越大越好。CFG Scale 是超参数,用于调整生成图片与提示词的相关性。
2023-05-11 17:17:54
7612
1
原创 【运筹一下】使用整数规划解决生产调度问题(附Python代码实现)
整数规划(Integer Programming,IP)是线性规划(Linear Programming,LP)的扩展,它要求决策变量取整数值。与线性规划相比,整数规划问题更加复杂,但也更接近实际问题。整数规划在许多实际问题中具有重要的应用价值,例如生产调度、货车路径规划等。
2023-05-10 17:51:59
1555
1
原创 【高效炼丹-筑基期】当深度学习遇上概率分布,你不能不知道的神奇度量方法:KL散度!
KL散度(Kullback-Leibler divergence),也称为相对熵,是一种用于衡量两个概率分布之间差异的度量方法。它可以描述两个分布之间的距离,用于衡量模型预测结果与真实分布之间的差异,是深度学习中常用的度量方法之一。
2023-05-09 17:33:34
1204
1
原创 【高效炼丹】指数移动平均(EMA):深度学习中的神器
EMA的本质是对历史数据进行加权平均,其中每个数据点的权重随着它距离当前时间点的远近而不断减小。这样做的好处是可以有效地平滑时间序列数据,使其更加连续和稳定。在深度学习中,EMA被广泛应用于优化器的更新、模型参数的平均等方面,可以帮助提高模型的性能和泛化能力。同时,由于EMA的计算方式简单且易于实现,因此也是深度学习中常用的技巧之一。
2023-05-09 16:57:29
7442
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅