安装DOTA_devkit-master

安装DOTA_devkit-master首先需要安装swig,这个可以看链接http://t.csdnimg.cn/KT8Qp,这个在下载包的时候下载准确,是swigwin。

安装好swig之后,下载DOTA_devkit-master,链接GitHub - CAPTAIN-WHU/DOTA_devkit

解压之后,cmd进入到该路径中,然后激活自己的虚拟环境

激活之后不要急着编译

找到polyiou.py进行修改,这个一定要在编译之前修改,编译后代码就变了

至于为什么修改,不要问我,因为我也不知道,也不想知道,头疼。

修改完后,紧接着使用Notepad++打开polyiou.cpp,修改编码格式,将其修改成UTF-8-BOM

然后保存退出。

这些完事后

在之前打开的虚拟环境那里开始编译,首先执行swig -c++ -python polyiou.i

然后执行python setup.py build_ext --inplace

最后就编译成功了,祝好运,愿你没有遇见别的坑。

### DOTA 数据集开发工具包用于 YOLO 模型 #### 路径配置 原始图像数据位于 `E:\Model\YOLOv5_DOTA_OBB2\DOTA_devkit_YOLO-master\DOTA_demo\images` 下[^1]。 #### 初始化模型 对于初始化模型,可以采用如下方式: - 使用 YAML 文件创建模型: ```python from ultralytics import YOLO model = YOLO("yolo11n-obb.yaml") ``` - 使用预训练的 PT 文件加载模型: ```python model = YOLO("yolo11n-obb.pt") ``` - 同时使用 YAML 和 PT 文件来加载特定权重: ```python model = YOLO("yolo11n-obb.yaml").load("yolo11n-obb.pt") ``` 上述方法提供了灵活性,在不同场景下可以选择最适合的方式进行模型初始化[^2]。 #### 运行预测脚本 为了实现目标跟踪的效果,可以直接运行 `track_predict.py`。此脚本允许自定义输入视频路径和输出保存位置。默认情况下,已提供一段测试视频供验证模型性能之用。如果希望应用最新版本的模型,则需更新 `YoloDeepSort` 文件夹内的 yolov5 结构并替换相应权重文件[^3]。 ```python import torch from models.common import DetectMultiBackend video_path = "test_video/test12.avi" video_save_path = "test_video/output.mp4" device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') half = False weights = 'runs/car/weights/last.pt' model = DetectMultiBackend(weights, device=device, dnn=False) if half: model.model.half() else: model.model.float() ``` 这段代码展示了如何设置设备参数、指定权重路径,并调整半精度浮点数支持选项以优化推理速度。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值