- 博客(10)
- 收藏
- 关注
原创 AI大模型入门:“大模型“ 等于 “大语言模型“ 吗?
免费分享:全套的AI大模型学习资源,包括 2024最新版全套大模型学习路线图,学习文档、书籍、学习视频教程、面试题等!带大家快速高效的从基础到高级!有需要的小伙伴可以点击下方链接哦~2024全套大模型学习资料,免费领取!从入门到进阶一套搞定!AI大模型入门基础教程学习指南,带你从入门到进阶2024最新版全套大模型学习路线图(完整版)AI大模型时代下,初学者该怎么才能快速入门?2024 | 大模型算法工程师相关面试题汇总及答案解析。
2024-07-25 20:52:13
991
原创 大模型 | 如何写好提示词?
免费分享:全套的AI大模型学习资源,包括 2024最新版全套大模型学习路线图,学习文档、书籍、学习视频教程、面试题等!带大家快速高效的从基础到高级!有需要的小伙伴可以点击下方链接哦~AI大模型入门基础教程学习指南,带你从入门到进阶2024最新版全套大模型学习路线图(完整版)AI大模型时代下,初学者该怎么才能快速入门?
2024-07-24 22:10:23
945
原创 llama大模型部署
免费分享:全套的AI大模型学习资源,包括 2024最新版全套大模型学习路线图,学习文档、书籍、学习视频教程、面试题等!带大家快速高效的从基础到高级!有需要的小伙伴可以点击下方链接哦~AI大模型入门基础教程学习指南,带你从入门到进阶2024最新版全套大模型学习路线图(完整版)AI大模型时代下,初学者该怎么才能快速入门?
2024-07-24 21:46:05
414
原创 大模型:什么是RAG?
RAG模型结合了检索(Retrieval)和生成(Generation)两个阶段。在检索阶段,模型会- - 从大量的数据源中检索出与当前任务相关的信息;在生成阶段,这些检索到的信息会被用作上下文,帮助生成模型产生更加准确和丰富的输出。免费分享:全套的AI大模型学习资源,包括 2024最新版全套大模型学习路线图,学习文档、书籍、学习视频教程、面试题等!带大家快速高效的从基础到高级!有需要的小伙伴可以点击下方链接哦~AI大模型入门基础教程学习指南,带你从入门到进阶2024最新版全套大模型学习路线图(完整版)
2024-07-24 21:34:58
449
原创 AI大模型的核心概念
免费分享:全套的AI大模型学习资源,包括 2024最新版全套大模型学习路线图,学习文档、书籍、学习视频教程、面试题等!带大家快速高效的从基础到高级!有需要的小伙伴可以点击下方链接哦~AI大模型入门基础教程学习指南,带你从入门到进阶2024最新版全套大模型学习路线图(完整版)AI大模型时代下,初学者该怎么才能快速入门?如有侵权,请联系删除。
2024-07-23 10:33:57
1094
原创 大模型调优:提示工程、RAG 与微调对比
在构建大型语言模型(LLM)应用时,选择合适的调优方法确实至关重要。免费分享:全套的AI大模型学习资源,包括 2024最新版全套大模型学习路线图,学习文档、书籍、学习视频教程、面试题等!带大家快速高效的从基础到高级!有需要的小伙伴可以点击下方链接哦~AI大模型入门基础教程学习指南,带你从入门到进阶2024最新版全套大模型学习路线图(完整版)AI大模型时代下,初学者该怎么才能快速入门?
2024-07-23 10:16:01
3154
原创 大模型微调方法:冻结方法 Freeze、P-Tuning 系列、LoRA、QLoRA
免费分享:全套的AI大模型学习资源,包括 2024最新版全套大模型学习路线图,学习文档、书籍、学习视频教程、面试题等!带大家快速高效的从基础到高级!有需要的小伙伴可以点击下方链接哦~AI大模型入门基础教程学习指南,带你从入门到进阶2024最新版全套大模型学习路线图(完整版)AI大模型时代下,初学者该怎么才能快速入门?如有侵权,请联系删除。
2024-07-23 10:09:31
1169
原创 AI大模型 | 深入理解Transformer核心原理
return outAI大模型入门基础教程学习指南,带你从入门到进阶2024最新版全套大模型学习路线图(完整版)AI大模型时代下,初学者该怎么才能快速入门?
2024-07-22 19:45:21
683
1
原创 AI大模型 | 应用Transformer模型提升推荐系统效果
Transformer最初在2017年由Google的研究人员提出,用于解决机器翻译问题。其核心是自注意力机制(Self-Attention),能够在处理序列数据时,动态地关注序列中不同部分的重要性。这种机制使得Transformer非常适合处理与顺序相关的推荐任务。AI大模型入门基础教程学习指南,带你从入门到进阶2024最新版全套大模型学习路线图(完整版)AI大模型时代下,初学者该怎么才能快速入门?
2024-07-22 19:39:55
793
原创 四种大模型微调方法总结
QLoRA于23年5月份通过此篇论文《QLORA: Efficient Finetuning of Quantized LLMs》被提出,本质是对LoRA的改进,相比LoRA进一步降低显存消耗。因为LoRa为LLM的每一层添加了少量的可训练参数(适配器),并冻结了所有原始参数。这样对于微调,只需要更新适配器权重,这可以显著减少内存占用而QLoRa更进一步,引入了4位量化、双量化和利用nVidia统一内存进行分页。所有这些对比Lora,进一步降低了显存消耗。
2024-07-22 19:32:23
1146
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人