
人工智能
文章平均质量分 60
算法模块
YOURLIU
这个作者很懒,什么都没留下…
展开
-
Docker容器中ffmpeg调用GPU
在容器中使用 GPU 加速来处理视频流或其他相关任务,并且宿主机已经配置了 GPU 驱动,通常需要将宿主机的 NVIDIA 相关库文件(如和)复制到容器中,以便容器能够正确识别并使用这些库。原创 2025-02-24 09:34:41 · 383 阅读 · 0 评论 -
YOLOV8兼容适配昇腾NPU_V2(解决310P3 推理卡上加载慢问题)
对此,不进行一定的业务改造和适配的话,是无法做到各自版本的调用推理的。通过根据ultralytics 8.0.29版本包和提供的infer代码进行分析,可知,当前使用的infer验证方法是基于ultralytics 8.0.29中目标检测的验证器进行代码抽离的改造,所以我们主要调用推理改造代码如下min32's'1'labels''bold'如使用命令进行的模型转换如下可以看到图像的格式,对此在图像预处理中需要,才可以正常输入模型进行推理,但是推理结果都是,因此后处理中需要。原创 2024-11-29 17:20:39 · 1562 阅读 · 0 评论 -
YOLOV8 兼容适配昇腾NPU
yolo本身只支持cuda来调用GPU,所以使用以上方式进行兼容后,对于一些特定GPU上的兼容,在环境上是使用不了的,所以会发现在训练的时候会经常打印cuda相关的异常警告,但总体不影响模型的训练使用,可能在训练上对比GPU来说还是有些性能缺陷。代码上基本已经兼容,主要涉及源码模块,在进行torch显卡设备识别的时候,源码无法对npu进行识别检测,原以为使用了torch.device后可以进行统一的过滤返回,但在。,对此需要在源码层面上做一层判断筛选,返回对应的torch.device。原创 2024-10-14 10:19:01 · 1176 阅读 · 0 评论 -
Torch兼容适配昇腾NPU
去昇腾官方查看对应版本的cann兼容torch版本,下载对应torch,自己拉取torchvision_npu代码放置服务器上进行编译,各自编译会根据自己平台和python版本生成对应的torchvision_npu,有所区别,所以以源代码为准。在原代码引用上,import这俩个包即可使用。原创 2024-10-14 10:17:17 · 1556 阅读 · 2 评论