自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 快速上手 WandB:用 PyTorch 训练 MNIST + 可视化全流程

本篇文章将带你通过一个完整的 PyTorch 示例,从零快速上手 WandB:训练一个简单的 CNN 模型用于 MNIST 分类,并记录并可视化训练过程。在训练深度学习模型时,如何高效地追踪训练过程、记录实验参数、可视化损失与准确率曲线,一直是我们开发流程中的痛点。你可以通过命令行自由调整每次实验的配置,比如 batch size、dropout 等。你可以在 WandB 面板中直观查看每个 epoch 的准确率、损失变化趋势。你可以将本文代码作为模板,快速迁移到你自己的模型中。

2025-04-09 11:20:09 571

原创 Hugging Face 下载模型权重太慢?一招解决!

很多人在使用 Hugging Face 下载模型时,会遇到以下问题:下载速度极慢,甚至直接失败;下载下来的模型文件层层嵌套,管理非常麻烦。如上图所示,传统方式常常因为网络问题导致下载失败或非常缓慢。为了解决这个问题,可以通过替换下载源,并使用 huggingface-cli 工具来实现更快、更稳定的模型下载方式。我们可以采用以下命令来加速并优化模型下载过程。

2025-04-08 16:04:22 430

原创 【大模型加速】三分钟速通Flash Attention (flash-attn)安装

Flash Attention快速安装教程

2025-02-24 17:38:33 2502

原创 【Ollama+Open WebUI】Windows本地部署DeepSeek R1模型:完整指南

这篇博客详细介绍了如何在Windows系统上本地部署DeepSeek R1模型,并使用Open WebUI进行可视化交互。文章涵盖了必要工具的安装,如Ollama和Docker,配置模型权重下载路径,下载DeepSeek R1模型,并通过WebUI进行模型测试和交互。适合希望在本地环境中运行DeepSeek R1的用户,帮助顺利完成部署过程。

2025-02-02 21:21:35 3692 1

原创 【全网首发】使用 LoRA 微调 Qwen2.5-VL-7B-Instruct:完整流程解析

本篇文章介绍了如何使用 LoRA(Low-Rank Adaptation) 技术对 Qwen2.5-VL-7B-Instruct 进行轻量级微调,从而高效适配特定任务。我们详细解析了 模型加载、数据预处理、LoRA 适配、训练配置及推理评估 的完整流程,并提供了代码示例。通过 LoRA,我们可以 在较低计算资源下快速微调大规模视觉-语言模型(VLMs),使其更适用于特定领域任务。对于希望优化 Qwen2.5-VL 并实现高效微调的开发者,本文提供了一套实用的解决方案。🚀

2025-01-28 21:19:19 13901 22

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除