YOLOv1-v10各版本的作者(附论文及项目地址)

            <div id="content_views" class="markdown_views prism-atom-one-dark">
                <svg xmlns="http://www.w3.org/2000/svg" style="display: none;">
                    <path stroke-linecap="round" d="M5,0 0,2.5 5,5z" id="raphael-marker-block" style="-webkit-tap-highlight-color: rgba(0, 0, 0, 0);"></path>
                </svg>
                <h2><a name="t0"></a><a id="YOLOv1v9_1"></a>YOLOv1-v9作者及项目地址</h2> 

YOLOv1

在这里插入图片描述

Joseph Redmon ,Santosh Divvala , Ross Girshick 和 Ali Farhadi 。
Joseph Redmon 是YOLO系列的主要创始人,他在华盛顿大学进行研究工作时提出了 YOLO 的概念。

YOLOv2与YOLOv3

在这里插入图片描述

在这里插入图片描述

这两个版本继续由 Joseph Redmon 和 Ali Farhadi 共同开发。Joseph Redmon 的工作推动了目标检测技术的边界,但在YOLOv3 之后,他宣布退出计算机视觉研究,以表达对 AI 技术潜在不负责任使用的担忧。

YOLOv4

在这里插入图片描述

Alexey Bochkovskiy、Chien-Yao Wang(YOLOv4,YOLOv7 作者) 和 Hong-Yuan MarkLiao(YOLOv4、YOLOv7、YOLOv9 的作者)。

YOLOv5

"YOLOv5"的项目团队是 Ultralytics LLC 公司,它是一个专注于深度学习和人工智能(AI)领域的公司,特别是在计算机视觉和目标检测技术方面。github项目star数已达 46.5 k,是应用最广泛的YOLO版本。

YOLOv6

在这里插入图片描述

开发者是来自中国的科技公司美团的研究团队。

YOLOv7

在这里插入图片描述

Chien-Yao Wang(YOLOv4、YOLOv7、YOLOv9 作者)、Hong-Yuan Mark Liao(YOLOv4、YOLOv7、YOLOv9 的作者)、 Alexey Bochkovskiy (YOLOv4 作者)。

YOLOv8

由小型初创公司 Ultralytics 创建并维护的,(同 YOLOv5)

YOLOv9

在这里插入图片描述

Chien-Yao Wang (YOLOv4、YOLOv7、YOLOv9 作者) , I-Hau Yeh , Hong-Yuan Mark Liao(YOLOv4、YOLOv7、YOLOv9 的作者)

YOLOv10

在这里插入图片描述
由清华大学团队Ao Wang,Hui Chen,Lihao Liu,Kai Chen,Zijia Lin,Jungong Han,Guiguang Ding开发。

YOLO系列的主要作者及其相关工作

  • Joseph Redmon
    主要工作:YOLOv1, YOLOv2, YOLOv3

  • Santosh Divvala
    主要工作:YOLOv1

  • Ross Girshick
    主要工作:YOLOv1, Faster R-CNN, Microsoft coco, Fast R-CNN, FPN

  • Ali Farhadi
    主要工作:YOLOv1, YOLOv2, YOLOv3

  • Alexey Bochkovskiy
    主要工作:YOLOv4, YOLOv7

  • Chien-Yao Wang
    主要工作:YOLOv4, YOLOv7, YOLOv9,CSPNet

  • Hong-Yuan Mark Liao
    主要工作:YOLOv4, YOLOv7, YOLOv9,CSPNet

  • 美团
    主要工作:YOLOv6

  • Ultralytics 公司
    主要工作:YOLOv5,YOLOv8

  • Ao Wang
    主要工作:YOLOv10,RepViT

  • Hui Chen
    主要工作:YOLOv10,IMRAM,RepViT,GRN,PDANet

  • Zijia Lin
    主要工作:
    YOLOv10,IMRAM,RepViT,GRN,
    Semantics-Preserving Hashing for Cross-View Retrieval,
    Cross-view retrieval via probability-based semantics-preserving hashing,
    Multi-label classification via feature-aware implicit label space encoding

  • Jungong Han
    主要工作:
    YOLOv10,RepVGG,ACNet,IMRAM,
    Enhanced computer vision with microsoft kinect sensor: A review,
    Scaling up your kernels to 31x31: Revisiting large kernel design in cnns,
    Sparse representation based multi-sensor image fusion for multi-focus and multi-modality images: A review,
    Gabor Convolutional Networks,
    Cross-view retrieval via probability-based semantics-preserving hashing

  • Guiguang Ding
    主要工作:
    YOLOv10,RepVGG,ACNet,IMRAM,GRN,
    Transfer Feature Learning with Joint Distribution Adaptation,
    Scaling up your kernels to 31x31: Revisiting large kernel design in cnns,
    Cross-view retrieval via probability-based semantics-preserving hashing

</article>
目前并未提及 YOLOv8v10 的具体存在形式或官方发布情况。根据已知的信息,YOLO 系列算法确实经历了多个版本的迭代和发展,其中最新的提到的是 YOLOv10[^2]。然而,在公开资料中并没有明确指出有名为 YOLOv8v10 的特定版本。 如果用户希望获取有关 YOLOv10 的技术文档或者论文 PDF,可以参考以下方法: ### 获取方式 #### 1. **访问官方资源** 如果 YOLOv10 已被合并至 Ultralytics 官方项目,则可以直接查看 Ultralytics GitHub 页面以及其相关文档链接寻找更多信息。 - Ultralytics GitHub 地址:https://github.com/ultralytics/yolov5 (注意实际名称可能仍为 `yolov5`) #### 2. **查阅学术平台** 对于正式发布的模型及其对应的论文,通常会上传到 Arxiv 或其他知名学术网站供研究人员下载阅读。可以通过搜索引擎输入关键词如 “YOLOv10 paper” 来定位相关内容。 #### 3. **社区讨论与论坛** 像 Reddit、Stack Overflow 和一些专注于计算机视觉的技术博客也可能分享了关于新版本 YOLO 的见解和技术细节。这些地方有时甚至早于官方文档提供了一些初步实现思路和教程[^3]。 以下是基于 Python 实现的一个简单示例来展示如何通过代码加载预训练权重并执行推理过程(假设使用的是标准 YOLO 架构): ```python from ultralytics import YOLO model = YOLO('path/to/model.pt') # 加载模型 results = model(source='image.jpg', conf=0.5) # 执行预测 for result in results: boxes = result.boxes.xyxy.cpu().numpy() # 获取边界框坐标 scores = result.boxes.conf.cpu().numpy() # 获取置信度分数 labels = result.boxes.cls.cpu().numpy() # 获取类别标签 ``` 请注意上述路径需替换为您本地保存的实际文件位置。 ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值