- 博客(95)
- 资源 (1)
- 收藏
- 关注
原创 mmpretrain自定义评估指标
在验证和测试期间计算 top-1 准确率、top-5 准确度、精确度和召回率。多标签分类指的是一个图片可能属于多个分类;单标签分类指的是一个图片只属于一个分类;
2025-04-02 11:40:09
78
原创 vllm运行过程中出现cuda out of memory
将长序列分解为多个小块,每个块分别处理。这样可以减少单次 Prefill 的计算量和显存占用,从而优化 TTFT 和显存使用效率。考虑使用 CPU 卸载(如 --cpu-offload-gb),将部分缓存卸载到 CPU 内存中,扩展 GPU 的虚拟内存。在大语言模型中,当输入序列很长(例如超过 1024 个 Token)时,Prefill 阶段的计算量会非常大。最后增加了enable-chunked-prefill参数和max_num_batched_tokens解决了问题。参数来进一步优化性能。
2025-03-27 17:26:12
335
原创 prisma创建新表,添加数据时找不到对象
使用vscode时,await prisma.order.create却找不到对象,重启vscode即可。
2025-03-26 21:53:22
63
原创 vercel部署项目报错Error [PrismaClientInitializationError]: Prisma has detected that this project was built
【代码】vercel部署项目报错Error [PrismaClientInitializationError]: Prisma has detected that this project was built。
2025-03-26 12:00:10
125
原创 prisma新增字段后,查询不到字段的原因
在schema.prisma中新定义了一个字段,但使用prisma却查不到该字段,原来需要重新生成数据模型的client。2.执行npx prisma generate。3.成功后再启动服务即可。1.必须先停用服务。
2025-03-23 21:46:53
110
原创 nextjs使用next-intl要注意
网页一直没出错,就没注意,但如果page设置成了async,就会出现[Error: Expected a suspended thenable. This is a bug in React. Please file an issue.]错误。
2025-03-22 22:56:18
282
原创 Next.js集成prisma保存NextAuth第三方用户登录信息
修改prisma/schema.prisma文件,定义数据表字段@db.Text@db.Text@db.Text@unique。
2025-03-18 14:12:07
225
原创 DeepSeek-VL2使用swift微调的环境搭建和微调过程
最大模型用8张卡跑起来很难,需要降低--lora_rank、--lora_alpha、--max_length、--deepspeed、--per_device_train_batch_size、--gradient_accumulation_steps、--dataloader_num_workers才能刚好跑起来,虽然跑起来了,但训练速度却非常的慢。模型合并后,将模型复制到deepseek-vl2/deepseek-ai/目录下,使用deepseek-vl2的web.demo可以跑一下看看运行效果。
2025-03-05 08:46:34
1346
原创 DeepSeek-VL2多显卡运行Gradio Demo
关键位置就是:'deepseek-ai/deepseek-vl2': [4, 4, 4, 4, 4, 4, 3, 3],为不同的卡分配不同层。虽然指定了8张卡,但实际只用了一张卡,Gradio Demo程序并不支持多卡推理。把原来的load_model注释掉。
2025-03-03 17:08:43
318
1
原创 新装openwebui网页等好久才能打开?
因为模型设置里,默认连接openai的api,耐心等等,进来修改一下openai的api连接为你的地址即可。
2025-02-27 16:52:29
607
原创 显卡Unable to determine the device handle for GPU等错误解决办法
最近公司多台AI服务器在训练过程中出现各自显卡报错,找不到原因,最后猜测是电源或功率太大造成的,用的是rtx3090,最后锁住功率,正常了!
2024-12-23 14:15:36
1267
原创 openwebui通过Docker运行报错OSError: We couldn‘t connect to ‘https://huggingface.co‘ to load this file
运行后就会发现在data目录下有“models--sentence-transformers--all-MiniLM-L6-v2”,这就是联网下载下来的模型,下次可以整体拷贝整个data目录到docker-compose.yml放在一起,不挂代理也能正常访问了。docker运行openwebui报错OSError: We couldn't connect to '
2024-11-13 10:12:28
984
原创 Python保存CSV文件,Excel打开后中文乱码
在做多语言文件处理时, 使用 pandas, 并且指定了encoding为 UTF-8, 在 IDE, Sublime等编辑器上查看都显示正常,使用Excel打开非英文字符, 例如汉字, 阿拉伯文, 希伯来文等显示乱码。Excel 对于非BOM (字节顺序标记)1 保存的CSV文件默认采取ASNI编码 23, pandas 默认的保存方式并没有在文件头加上 (0xEF, 0xBB, 0xBF) or \ufeff。
2024-10-12 15:59:19
1079
1
原创 多网卡服务器,互换网卡名
服务器两张网卡,eth0和eth1,网卡1出现了问题,在不影响服务器内部各种桥接网络的情况下,直接将网卡2改为eth0即可。
2024-09-19 14:26:53
160
原创 list is not in GROUP BY clause and contains nonaggregated column ‘*‘ which is not functionally depen
因为当前SQL 运行模式为 ONLY_FULL_GROUP_BY,该模式要求 SELECT 列表中的所有非聚合字段必须出现在 GROUP BY 子句中,或者与 GROUP BY 列中的字段存在函数依赖关系。最简单的办法就是禁用 ONLY_FULL_GROUP_BY。
2024-09-12 15:28:22
411
原创 rsync断点续传文件
e:指定ssh端口,如果使用默认22端口,则-e参数可不加;root@0.0.0.0为远程服务器ip和用户名。/opt/为远程服务器存储文件的目录。./files为本地要同步的文件;
2024-09-06 15:17:34
241
原创 关于CUDA版本查看的问题
右上角显示的CUDA Version:12.1并非本机的 CUDA 版本,而是 GPU 最高支持的 CUDA 版本,本机安装的CUDA版本不能高于GPU最高支持的版本。如果是linux系统,也可以进入/usr/local目录查看cuda文件夹显示的版本。通过nvcc --version查看到的版本才是本机实际安装的CUDA的版本。cuda-11.7就说明本机安装的是11.7版本的cuda。显卡驱动安装成功后,通过nvidia-smi命令查看显卡信息。
2024-09-03 09:05:10
420
原创 TTGO-T-Display开发板获取剩余电量
最近在做个硬件项目,使用了TTGO-T-Display开发板,这个板子自带充电电路,通过以下代码可读取电池的剩余电量。
2024-08-30 08:21:31
256
原创 swift自定义数据集微调Qwen-7B大模型,转换模型后使用ollama跑起来
-model_name 阿盛 Master Coder \--model_author 盛世芳华 LLM_ROME \微调时,只需指定--dataset为本地csv文件路径即可,csv文件的格式如下:instruction是问题,input大概能理解为问题背景,output为答案,数据集准备好以后就可以直接进行训练。ms-swift/docs/source/LLM/自定义与拓展.md at main · modelscope/ms-swift (github.com)
2024-08-27 15:31:53
5514
2
原创 swift多卡微调提示Error: mkl-service + Intel(R) MKL: MKL_THREADING_LAYER=INTEL is incompatible with libgomp
【代码】swift多卡微调提示Error: mkl-service + Intel(R) MKL: MKL_THREADING_LAYER=INTEL is incompatible with libgomp。
2024-08-26 09:46:10
598
原创 php生成json字符串,python解析json字符串
其中$command = "python3 main.py --folders '" . json_encode($nodes)."'"代码中,一定要用单引号把json_encode($nodes)生成的字符串包含起来。python再去解析字符串。
2024-08-21 09:28:48
343
原创 onlyoffice使用Https访问
开发服务器用的是http,一切正常使用,部署到服务器后,由于服务器使用了Https,导致访问onlyoffice时控制台报错。Mixed Content: The page at 'http://xxxxx//' was loaded over HTTPS, but requested an insecure frame 'http://xxxxx//'.主要原因是https链接中嵌套了http的资源导致报错,我的onlyoffice部署在docker容器中,如果配置证书什么的,看着还是挺麻烦的。
2024-08-05 15:54:54
1558
原创 onlyoffice集成过程中遇到的坑和常见问题
最近需要集成onlyoffice,大致看了一下,非常简单(不要轻易立flag)。但在实际集成过程中遇到了各种各样的问题。
2024-07-30 09:52:51
4707
1
原创 mmtracking训练sot数据集问题汇总
训练时报错:AssertionError: 354 is not equal to 354-6+1,我查了mmtrack/datasets/otb_dataset.py发现,官方特意处理了Board、Tiger1两个分类,如果你仔细看data/otb100/annotations/otb100_infos.txt文件会发现,uav123数据集使用siamese_rpn算法报错:ValueError: cannot convert float NaN to integer,原因未知;
2024-07-19 10:39:28
479
1
原创 mmtracking安装环境提示Could not build wheels for scipy, which is required to install pyproject.tom
dockerfile构造mmtracking镜像时,在编译scipy时,不管怎么弄,都提示,Could not build wheels for scipy, which is required to install pyproject.tom。最简单的办法就是进入mmtracking/requirements文件夹,修改runtime.txt,注释掉scipy。
2024-07-17 15:29:53
269
原创 mmtracking单目标跟踪数据集说明以及自定义数据集
以data_seq/UAV123/bike1,anno/UAV123/bike1.txt,1,3085为例,data_seq/UAV123/bike1目录下放的是一个视频的图片序列。建议一个视频只跟着一个运动的物体标注,如果数据集实在匮乏,也可以一个视频的图片序列标注多个运动物体,但只要每个运动的物体都生成独立的标注文件就可以了。格式为:图片序列路径、图片序列标注文件路径、开始帧、结束帧,开始帧默认就是1,结束帧可以理解为最后一张图片的序列,或者文件夹下图片的总数。以OTB100为例,查看网址。
2024-07-12 08:50:47
758
1
原创 mmdetection3增加12种注意力机制
mmdetection3增加12种注意力机制,包括:CBAM、BAM、SEAttention、ECAAttention 、ShuffleAttention 、SGE 、A2Atttention 、PolarizedSelfAttention、CoTAttention、TripletAttention、CoordAttention、ParNetAttention
2024-07-04 11:33:35
1061
9
原创 mmdeploy环境部署过程中遇到的巨坑
提示 [mmdeploy] [error] [common.cpp:67] Device "cuda" not found那就pip把mmdeploy-runtime卸载了,然后用gpu版本pip install mmdeploy-runtime-gpu。说明你安装了onnxruntime和onnxruntime-gpu,卸载掉其中一个即可,因为我希望用gpu跑onnx,所以留下onnxruntime-gpu,卸载onnxruntime。如果要同时使用trt和onnx,编译mmdeploy时。
2024-06-25 16:33:06
1659
3
原创 mmdeploy环境部署流程
我使用的版本为:TensorRT-8.6.1.6,下载并解压TensorRT-8.6.1.6.Linux.x86_64-gnu.cuda-11.8.tar.gz。docker容器,ubuntu20.04,cuda11.7、四张3090显卡,默认以安装好PyTorch、mmcv等mmdetection需要的所有环境。我使用的版本为cuDNN v8.6.0,下载并解压cudnn-linux-x86_64-8.6.0.163_cuda11-archive.tar.xz。7、下载mmdeploy并编译自定义算子。
2024-06-11 16:35:31
713
1
mmdetection3的12种注意力机制
2024-07-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人