《人工智能AI之计算机视觉:从像素到智能》专栏 · 模块二:核心感知(上)——2D世界的精细化理解(模型核心)· 第 7 篇
朋友们好。
在上一模块,我们一起拆解了机器视觉的核心引擎——CNN(卷积神经网络)。我们知道,通过卷积、池化这些精妙的操作,CNN能把一张复杂的照片一步步抽象成高级特征,最终告诉我们“图里有什么”(比如“这是一只猫”)。这叫图像分类(Image Classification)。
但是,在现实世界中,仅仅知道“有什么”往往是不够的。
想象一下,你正在开发一款自动驾驶汽车。当汽车行驶在繁忙的十字路口,摄像头拍到了一张包含行人、车辆、交通灯的复杂画面。如果你的AI只能告诉这辆车:“前面有‘人’,有‘车’”,那这辆车大概率是不敢开的。
因为它不知道这些人和车具体在哪里,也不知道它们有多大。
- 那个行人是在安全的人行道上,还是突然冲到了马路中间?
- 前面那辆车是在我的车道上正常行驶,还是正在强行变道?
要回答这些问题,我们的AI不仅需要“看懂”,还需要“揪出来”。
这就是计算机视觉领域更具挑战性、也更具实用价值的核心任务——目标检测(Object Detection)。
作为一名在IT行业摸爬滚打了30多年的老兵,我亲历了从早期的金融票据OCR识别,到后来智慧城市安防监控的变迁。我深知,只有当AI具备了精准“定位”的能力,它才能真正走出实验室,成为赋能千行百业的生产力工具。
今天,我们就来聊聊目标检测的开山鼻祖,那个把深度学习(CNN)第一次成功引入目标检测领域,并开启了一段波澜壮阔进化史的传奇家族——R-CNN。
一、 从“看懂”到“揪出来”:目标检测的本质挑战
目标检测的任务非常明确:给定一张图像,找出里面所有我们感兴趣的物体(比如人、车、猫、狗),并用一个矩形框(Bounding Box) 把它们一个个精准地框出来,同时还要标明每个框里到底是啥,以及置信度是多少。
- 分类:回答 What(是什么)。
- 检测:回答 What + Where(是什么 + 在哪里)。
这个“Where”的增加,让难度指数级上升。
1.1 为什么这么难?
因为物体的位置和大小是不确定的。
一只猫,可能出现在图像的左上角,也可能在右下角;它可能是一只占据半个屏幕的大猫,也可能是一只远处的、只有一个硬币大小的小猫。
如果用最笨的办法,我们可以怎么做?
- 滑动窗口(Sliding Window):我们可以设计一个固定大小的窗口,在图像上从左到右、从上到下滑动。每滑到一个位置,就把窗口里的图像送给CNN去分类,看看是不是猫。

最低0.47元/天 解锁文章
1259

被折叠的 条评论
为什么被折叠?



