- 博客(5)
- 收藏
- 关注
原创 快速上手 WandB:用 PyTorch 训练 MNIST + 可视化全流程
本篇文章将带你通过一个完整的 PyTorch 示例,从零快速上手 WandB:训练一个简单的 CNN 模型用于 MNIST 分类,并记录并可视化训练过程。在训练深度学习模型时,如何高效地追踪训练过程、记录实验参数、可视化损失与准确率曲线,一直是我们开发流程中的痛点。你可以通过命令行自由调整每次实验的配置,比如 batch size、dropout 等。你可以在 WandB 面板中直观查看每个 epoch 的准确率、损失变化趋势。你可以将本文代码作为模板,快速迁移到你自己的模型中。
2025-04-09 11:20:09
571
原创 Hugging Face 下载模型权重太慢?一招解决!
很多人在使用 Hugging Face 下载模型时,会遇到以下问题:下载速度极慢,甚至直接失败;下载下来的模型文件层层嵌套,管理非常麻烦。如上图所示,传统方式常常因为网络问题导致下载失败或非常缓慢。为了解决这个问题,可以通过替换下载源,并使用 huggingface-cli 工具来实现更快、更稳定的模型下载方式。我们可以采用以下命令来加速并优化模型下载过程。
2025-04-08 16:04:22
430
原创 【Ollama+Open WebUI】Windows本地部署DeepSeek R1模型:完整指南
这篇博客详细介绍了如何在Windows系统上本地部署DeepSeek R1模型,并使用Open WebUI进行可视化交互。文章涵盖了必要工具的安装,如Ollama和Docker,配置模型权重下载路径,下载DeepSeek R1模型,并通过WebUI进行模型测试和交互。适合希望在本地环境中运行DeepSeek R1的用户,帮助顺利完成部署过程。
2025-02-02 21:21:35
3692
1
原创 【全网首发】使用 LoRA 微调 Qwen2.5-VL-7B-Instruct:完整流程解析
本篇文章介绍了如何使用 LoRA(Low-Rank Adaptation) 技术对 Qwen2.5-VL-7B-Instruct 进行轻量级微调,从而高效适配特定任务。我们详细解析了 模型加载、数据预处理、LoRA 适配、训练配置及推理评估 的完整流程,并提供了代码示例。通过 LoRA,我们可以 在较低计算资源下快速微调大规模视觉-语言模型(VLMs),使其更适用于特定领域任务。对于希望优化 Qwen2.5-VL 并实现高效微调的开发者,本文提供了一套实用的解决方案。🚀
2025-01-28 21:19:19
13901
22
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人