自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 llama-factory微调大模型实战入门教程

本文介绍了使用LLaMA-Factory框架微调大模型的完整流程。首先说明了安装步骤,包括克隆仓库、创建conda环境、安装依赖项和PyTorch。接着详细讲解了微调qwen2.5-vl-7b-instruct模型的实践过程,包括参数配置(yaml文件)、数据集注册、deepspeed配置和训练启动命令。在模型评估部分,提供了使用vllm部署模型、评估代码实现、图片压缩处理以及分类任务结果分析的方法。最后分享了查看官方issue解决问题的经验。整个流程涵盖了从环境搭建、模型微调到评估优化的关键步骤,为大型语

2025-08-01 15:21:55 1386

原创 Docker 容器部署的一些个人简单初步理解(持续更新ing

本文分享了在服务器上使用Docker部署llama-factory微调大模型的经验总结。作者将Docker容器类比为面向对象编程中的实例,镜像则为类,强调容器删除后镜像仍可复用。重点介绍了服务器目录与Docker容器的挂载关系,指出服务器挂载目录不代表容器自动挂载,需要通过-v参数重新实例化容器来实现目录映射。文中还提供了具体的Docker操作命令,包括停止/删除容器、重新实例化时挂载目录和设置共享内存的方法,并提醒读者注意部分目录挂载不全的常见问题。这些经验对新手学习服务器部署具有实用参考价值。

2025-07-10 13:51:38 730

原创 LightEMMA框架代码项目介绍——一个轻量化的端到端的智能驾驶框架

摘要:驾驶预测系统由5个核心脚本组成:predict.py调用视觉语言模型进行轨迹预测;evaluate.py和evaluate_all.py分别处理单/多模型评估;baseline.py提供基准对比。vlm.py和utils.py作为工具模块,分别处理模型接口和轨迹计算/可视化功能。系统通过config.yaml进行参数配置,setup.py管理安装依赖。该架构实现了从预测生成到评估比较的完整流程,支持多种商业/开源视觉语言模型,提供轨迹误差分析、可视化及基准对比等功能。

2025-07-07 17:56:11 398

原创 使用 vLLM 部署 Qwen2.5 大模型

本文详细介绍了Qwen2.5大模型本地部署流程,基于vLLM高性能推理引擎和OpenWebUI可视化界面。部署步骤包括:1)安装vLLM和OpenWebUI依赖;2)下载模型权重;3)配置WebUI界面代码;4)启动服务。vLLM提供高效的并行推理和内存管理,OpenWebUI支持交互式对话和参数调整。文章还提供了多GPU部署、显存不足等常见问题的解决方案,并展示了不同硬件的性能数据(RTX4090可达80-120 Token/s)。该方案使Qwen2.5大模型能在本地高效运行,适用于实时交互场景。

2025-07-07 14:02:48 1071

原创 Problem I. L05-09 寻找字符串中最大值的两种解决办法

用getchar()的方法不消耗空间,而且时间复杂度更小,但是比较难想,想出这个方法的巧妙之处在于,把握题目的关键是只需要输出最大ASCII码字符出现次数即可,其实并不要求你保存他的输入。2.getchar()每获取一个输入字符,就与之前输入字符中所记录的最大ASCII码比较,如果一样大计数加1,更大则计数还原到1并更新最大ASCII码。1.这个方法重点是如何读取多行的输入,通过不断追加保存每行的输入,实现用fgets()读取多行输入的方法,比较容易想到,但方法会消耗空间。

2023-11-11 16:12:54 363 2

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除