- 博客(5)
- 收藏
- 关注
原创 llama-factory微调大模型实战入门教程
本文介绍了使用LLaMA-Factory框架微调大模型的完整流程。首先说明了安装步骤,包括克隆仓库、创建conda环境、安装依赖项和PyTorch。接着详细讲解了微调qwen2.5-vl-7b-instruct模型的实践过程,包括参数配置(yaml文件)、数据集注册、deepspeed配置和训练启动命令。在模型评估部分,提供了使用vllm部署模型、评估代码实现、图片压缩处理以及分类任务结果分析的方法。最后分享了查看官方issue解决问题的经验。整个流程涵盖了从环境搭建、模型微调到评估优化的关键步骤,为大型语
2025-08-01 15:21:55
1386
原创 Docker 容器部署的一些个人简单初步理解(持续更新ing
本文分享了在服务器上使用Docker部署llama-factory微调大模型的经验总结。作者将Docker容器类比为面向对象编程中的实例,镜像则为类,强调容器删除后镜像仍可复用。重点介绍了服务器目录与Docker容器的挂载关系,指出服务器挂载目录不代表容器自动挂载,需要通过-v参数重新实例化容器来实现目录映射。文中还提供了具体的Docker操作命令,包括停止/删除容器、重新实例化时挂载目录和设置共享内存的方法,并提醒读者注意部分目录挂载不全的常见问题。这些经验对新手学习服务器部署具有实用参考价值。
2025-07-10 13:51:38
730
原创 LightEMMA框架代码项目介绍——一个轻量化的端到端的智能驾驶框架
摘要:驾驶预测系统由5个核心脚本组成:predict.py调用视觉语言模型进行轨迹预测;evaluate.py和evaluate_all.py分别处理单/多模型评估;baseline.py提供基准对比。vlm.py和utils.py作为工具模块,分别处理模型接口和轨迹计算/可视化功能。系统通过config.yaml进行参数配置,setup.py管理安装依赖。该架构实现了从预测生成到评估比较的完整流程,支持多种商业/开源视觉语言模型,提供轨迹误差分析、可视化及基准对比等功能。
2025-07-07 17:56:11
398
原创 使用 vLLM 部署 Qwen2.5 大模型
本文详细介绍了Qwen2.5大模型本地部署流程,基于vLLM高性能推理引擎和OpenWebUI可视化界面。部署步骤包括:1)安装vLLM和OpenWebUI依赖;2)下载模型权重;3)配置WebUI界面代码;4)启动服务。vLLM提供高效的并行推理和内存管理,OpenWebUI支持交互式对话和参数调整。文章还提供了多GPU部署、显存不足等常见问题的解决方案,并展示了不同硬件的性能数据(RTX4090可达80-120 Token/s)。该方案使Qwen2.5大模型能在本地高效运行,适用于实时交互场景。
2025-07-07 14:02:48
1071
原创 Problem I. L05-09 寻找字符串中最大值的两种解决办法
用getchar()的方法不消耗空间,而且时间复杂度更小,但是比较难想,想出这个方法的巧妙之处在于,把握题目的关键是只需要输出最大ASCII码字符出现次数即可,其实并不要求你保存他的输入。2.getchar()每获取一个输入字符,就与之前输入字符中所记录的最大ASCII码比较,如果一样大计数加1,更大则计数还原到1并更新最大ASCII码。1.这个方法重点是如何读取多行的输入,通过不断追加保存每行的输入,实现用fgets()读取多行输入的方法,比较容易想到,但方法会消耗空间。
2023-11-11 16:12:54
363
2
空空如也
vscode远程连接复制不了太多代码是为什么
2025-05-30
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅