LLM
文章平均质量分 91
星楠_001
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
model.generate()参数用处,该怎么配合使用
囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊囊😡囊囊囊😡囊囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡囊囊囊😡饿啊🤯饿啊🤯饿啊🤯饿啊🤯饿啊🤯饿啊🤯饿啊🤯饿啊🤯饿啊🤯饿啊🤯饿啊🤯饿啊🤯饿阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤阿巴🤤原创 2025-10-05 19:01:43 · 778 阅读 · 0 评论 -
如何unsloth导入模型部署 如何理解tokenizer输出 详解代码块参数和作用
本文详细介绍了大语言模型文本生成的关键步骤和参数配置,主要包括四个核心部分:1)模型加载与量化设置;2)文本分词与编码过程;3)文本生成策略与参数控制;4)结果解码与后处理。重点解析了temperature、top_k、top_p等采样参数的作用,以及beam search、early stopping等生成策略的应用场景。文章还提供了不同需求的生成模板(如长文本、短答、严谨回答、创意回答),并演示了tokenizer.decode()的工作原理和参数设置。最后指出模型输出质量取决于参数调优能力,为后续微调原创 2025-09-10 10:00:00 · 739 阅读 · 0 评论 -
unsloth FastLanguageModel类主要函数详解,具体作用和参数
Unsloth框架中的FastLanguageModel类提供了高效的大语言模型处理方案,主要包括四大核心功能: 模型加载:支持4/8-bit量化加载,显著降低显存占用; LoRA微调:通过轻量适配器实现高效参数更新,典型配置为r=16的秩分解; 推理优化:合并LoRA权重后推理速度提升2倍; 词表扩展:支持添加领域专用token和特殊符号。 该方案通过量化技术将8B参数模型的显存需求从30GB降至6GB,配合梯度检查点技术,在单张消费级GPU上即可实现大模型微调,为资源受限场景提供了实用解决方案。原创 2025-09-07 21:22:07 · 1204 阅读 · 0 评论 -
w11快速搭建Unsloth环境与Qwen3模型微调
本文介绍了使用Unsloth框架对通义千问Qwen3-4B模型进行微调的完整流程。主要包括:1)创建conda环境并安装必要的依赖项;2)下载模型和准备数据集;3)进行LoRA微调训练;4)测试微调后的模型效果。其中重点展示了数据格式处理、训练参数配置以及交互式对话测试方法。文章指出,虽然基础对话功能已实现,但创造性输出仍需更专业的数据集支持。最后提到将后续解析代码原理,采用理论与实践交替的讲解方式。原创 2025-09-04 17:51:47 · 409 阅读 · 0 评论
分享