基于SeaShips数据集的yolov8训练教程

之前已经试过在yolov3和faster-rcnn上训练SeaShips数据集,本次在yolov8上进行训练。

yolov8的训练有两种方式,一种是在mmdetection框架下下载mmyolo运行,另一种是直接采用ultralytics。本文两种方法都会介绍。


目录

一、mmyolo

1.1 创建环境

1.2 数据集准备

1.3 运行yolov8

二、ultralytics

2.1 下载ultralytics

2.2 数据集准备

2.3 运行yolov8

三、运行结果


一、mmyolo

官网链接:GitHub - open-mmlab/mmyolo: OpenMMLab YOLO series toolbox and benchmark. Implemented RTMDet, RTMDet-Rotated,YOLOv5, YOLOv6, YOLOv7, YOLOv8,YOLOX, PPYOLOE, etc.

mmyolo支持yolo许多系列的算法:

1.1 创建环境

conda create -n mmyolo python=3.8 pytorch==1.10.1 torchvision==0.11.2 cudatoolkit=11.3 -c pytorch -y
conda activate mmyolo
pip install openmim
mim install "mmengine>=0.6.0"
mim install "mmcv>=2.0.0rc4,<2.1.0"
mim install "mmdet>=3.0.0,<4.0.0"
git clone https://github.com/open-mmlab/mmyolo.git
cd mmyolo
# Install albumentations
pip install -r requirements/albu.txt
# Install MMYOLO
mim install -v -e .

按照上述步骤安装好mmyolo并创建属于自己的虚拟环境。

创建环境出错的可以看看我的这篇文章:基于kitti数据集的3D目标检测算法的训练流程_kitti 3d目标检测-优快云博客

里面详细的讲解了环境的配置等操作。

mmyolo装好之后应该会有这样的文件夹:

1.2 数据集准备

我们的SeaShips数据集格式是这样的:

Annotations里面是所有图像的标注文件(.xml),ImageSets是测试、训练和验证数据集划分文件(txt),JPEGImages里是所有的图像文件。

我们需要将数据集转换成yolov8允许的格式:

### 关于 SeaShips 数据集的相关研究 SeaShips 是一种用于船舶检测的数据集,其设计目的是支持复杂场景下的舰船目标识别任务。该数据集中包含了大量标注的图像样本,适用于多种计算机视觉算法的研究与测试[^1]。 #### 相关论文推荐 以下是几篇与 SeaShips 数据集紧密关联的重要学术成果: 1. **《Seaships: A Large-Scale Benchmark Dataset for Ship Detection》** 这是一篇关于 SeaShips 数据集构建及其应用的核心文章。文中详细描述了数据集的设计理念、采集过程以及标注方法,并探讨了基于此数据集目标检测性能评估标准。 2. **《Deep Learning-Based Object Detection Algorithms Evaluation on Seaships Dataset》** 此项工作对比分析了几种主流深度学习框架(如 Faster R-CNN, YOLOv3 和 SSD)在处理海事领域物体探测问题上的表现效果。实验部分特别强调了针对不同天气条件和光照环境的结果差异性[^3]。 3. **《Ship Detection Using Remote Sensing Images Based on Holistically-Nested Edge Detection》** 虽然主要聚焦于高分辨率遥感影像中的桥梁提取技术,但其中提到的方法论同样可以迁移应用于类似 SeaShips 的近岸区域船只监测情境下[^2]。 4. **《A Comprehensive Study of Maritime Surveillance Systems Utilizing Deep Neural Networks》** 提供了一个全面综述性质的文章,涵盖了近年来利用深度神经网络改进海上监控系统的各类尝试案例。其中包括对 SeaShips 等公开可用资源的有效利用率讨论。 对于上述提及到的具体 PDF 或者全文获取方式可以通过 IEEE Xplore 平台完成检索操作;如果遇到权限限制,则考虑通过学校图书馆订阅服务或者联系作者请求副本等形式解决访问障碍问题。 ```python import requests from bs4 import BeautifulSoup def fetch_paper(url): response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') title = soup.find('title').text.strip() abstract = soup.select_one('.abstract-text').text.strip() if soup.select_one('.abstract-text') else '' return {'Title': title, 'Abstract': abstract} paper_url = "https://ieeexplore.ieee.org/document/8438999" details = fetch_paper(paper_url) print(f"Paper Title: {details['Title']}\n\nAbstract:\n{details['Abstract']}") ``` 以上脚本可以帮助快速抓取指定 URL 页面内的基本信息作为初步了解参考资料内容之用,请注意实际部署前需确认目标站点允许此类自动化行为并遵循相应 robots.txt 文件规定。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值