自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 GIT创建并提交代码到仓库

本文介绍了使用Git提交代码到远程仓库的完整流程:1)创建远程仓库;2)通过git init初始化本地目录并与远程仓库关联;3)使用git add、commit、push命令上传代码;4)查看修改内容及提交记录。重点讲解了如何将已有目录直接作为Git工作目录,以及处理远程仓库已有文件时的合并方法。文中配有详细的操作截图,展示了从创建仓库到提交代码的每个步骤,包括查看状态差异、暂存修改、编写提交说明等关键操作。

2025-07-25 15:43:40 447

原创 LLama-factory微调qwen-7B

LLama-factory微调qwen-7B

2024-12-17 12:33:52 445

原创 Docker部署Qwen2-vl-7b模型-vLLM

几秒钟后容器报错了,cuda out of memory,发现gpu占满了,但是只占用了一块,我明明指定了all,为啥只占用gpu0,而且测试发现如果如果指定–gpus ‘”device=1”’ 也可以运行在gpu1上 ,但是无论是指定all 还是0,1,都会只运行在gpu0上。这里的add后的模型路径一开始和dockefile文件路径不一致,docker build -t vllm_qwen2vl_7b:1.0 -f Dockerfile .一直报错。今天又是收货满满的一天!于是加上了,可以正常运行了。

2024-11-01 17:17:22 2101

原创 【安装A10显卡驱动、cuda、cudnn】

然后回进入图形化界面,我是一路ok。

2024-10-28 18:53:49 2795

原创 服务器无法连接huggingface下载模型

1.打开hugging face 官网:https://huggingface.co/docs/transformers/installation#offline-mode 并点击Models。1.访问网站:https://hf-mirror.com/通过后面的下载按钮下载圈出的五个文件到本地。点击file and versions。model.encode行报错。输入使用的模型,并点击模型。2.搜索我们需要的模型。4.上传文件到服务器。

2024-10-10 21:04:16 1470

原创 python代码运行过程中输出内存占用情况

单位是字节Byte,可以转换成GB: /1024**3。

2024-10-10 12:01:12 683

原创 mysql指定分隔符切分字符串并取前n个元素

有次在处理sql的时候,有一个字段是用逗号分隔的元素组合在一起的字符串,但是我后续python建模不需要这么多,所以就想着干脆为了后面python进行处理数据的时候少占用内存,于是在sql阶段就只选取前n个元素。

2024-10-01 17:41:29 299 1

原创 DataFrame list类型列转成array之后第二维带有array()而不是[]

DataFrame list类型列转成array之后第二维带有array()而不是[

2024-09-22 18:44:25 272

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除