
LLM
文章平均质量分 56
司南锤
记录个人学习历程,与大家一起交流成长~
展开
-
Transformer学习资料
Transformer模型学习指南:《AttentionIsAllYouNeed》论文提出革命性的Transformer架构,采用自注意力机制实现高效并行计算。本文提供全方位学习路径:B站中文视频详解模型原理,GitHub项目"learn-nlp-with-transformers"提供实践教程,图文解析涵盖Encoder-Decoder结构和GPT-2实现。特别推荐TomYeh教授的Excel手绘神经网络练习,通过趣味实践深入理解模型细节。学习资源兼顾理论解析与动手实践,助您系统掌握T原创 2025-06-03 17:03:43 · 302 阅读 · 0 评论 -
Cursor快速梳理ipynb文件Prompt
这是一个针对Jupyter Notebook代码分析项目的标准化工作流程指南。摘要包含8个核心模块:从整体项目解读、代码结构分析、注释完善,到性能优化、自动化部署、测试验证,最后涵盖可视化报告和数据安全审查。指南提供了详细的操作指令,包括生成依赖清单、绘制调用关系图、拆分模块化脚本、编写单元测试等具体任务,并附有实用技巧(如角色设定、分块提问等)来提高分析效率。整套流程兼顾技术深度(性能瓶颈检测)和工程规范(PEP8检查),旨在确保代码质量、可复现性和安全性,最终产出标准化文档和可执行方案。原创 2025-06-03 10:11:11 · 419 阅读 · 0 评论 -
不同编程环境中GPU调用代码
在编程中,调用集成显卡(集显)和独立显卡(独显)通常涉及设置GPU设备和执行计算任务。以下是一些示例代码,展示了如何在不同编程环境中使用集显和独显。原创 2024-07-09 18:39:05 · 909 阅读 · 0 评论 -
对于配置LLM,集显和独显的具体区别和影响
虽然成本较低且能耗较小,但在处理大型语言模型时可能会遇到性能瓶颈。因此,如果的预算允许,建议选择高性能的。是更合适的选择,因为它提供了更高的性能、更大的显存容量和更好的计算能力。来支持大型语言模型的训练和推理。在配置大型语言模型时,原创 2024-07-09 18:36:42 · 824 阅读 · 0 评论