Spatial Pyramid Pooling in Deep Convolutional --- Spp_net

本文介绍了微软亚研院2015年提出的SPP_NET网络结构,该网络利用Spatial Pyramid Pooling Layer实现任意大小图像输入的同时,输出固定长度特征向量。文中详细阐述了stride与window的计算方法及窗口映射到特征图的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

微软亚研院2015的一篇文章,优点是能够满足任意大小图像的输入。

主要思想:

(1)Spatial Pyramid Pooling Layer. 正是因为该层,才让Spp_net能够实现任意图片的输入,并且得到固定长度的特征向量:

这里写图片描述

stride和window的计算:

这里写图片描述

(2)Mapping a Window to Feature Maps. 将原图输入Spp_net后,通过下面图片中介绍的方法,能够将原图中的点映射到feature map上,为object detection打下基础:

这里写图片描述

主要代码实现(基于theano/keras):

(1)spp_layer:

class SppLayer(Layer):
    def __init__(self,bins,feature_map_size=0):
        super(SppLayer,self).__init__()
        self.strides = []
        self.windows = []
        self.a = feature_map_size#feature_map size
        self.bins = bins
        self.num_bins = len(bins)

    def get_output(self,train):
        self.input = self.get_input(train)
        for i in range(self.num_bins):
            self.strides.append(int(math.floor(self.a/self.bins[i])))
            self.windows.append(int(math.ceil(self.a/self.bins[i])))

        self.pooled_out = []
        for j in range(self.num_bins):
            self.pooled_out.append(downsample.max_pool_2d(input=self.input,
                                                              ds=(self.windows[j],self.windows[j]),
                                                              st=(self.strides[j],self.strides[j]),
                                                              ignore_border=False))

        for k in range(self.num_bins):
            self.pooled_out[k] = self.pooled_out[k].flatten(2)
            """
            print self.windows[k]
            print self.strides[k]
            print 'K: '+str(k)
            """
        # batch_size * image_size
        self.output = T.concatenate([self.pooled_out[0],self.pooled_out[1],self.pooled_out[2]],axis=1)

        return self.output

(2)Mapping a Window to Feature Maps:

def window_to_feature_map(window_point_x1,window_point_y1,window_point_x2,window_point_y2,
                          window_size_x,window_size_y,map_size_x,map_size_y):
    map_point_x1 = window_point_x1*math.ceil(map_size_x/window_size_x)-1
    map_point_y1 = window_point_y1*math.ceil(map_size_y/window_size_y)-1
    map_point_x2 = window_point_x2*math.ceil(map_size_x/window_size_x)-1
    map_point_y2 = window_point_y2*math.ceil(map_size_y/window_size_y)-1

    return map_point_x1,map_point_y1,map_point_x2,map_point_y2
本课程适合具有一定深度学习基础,希望发展为深度学习之计算机视觉方向的算法工程师和研发人员的同学们。基于深度学习的计算机视觉是目前人工智能最活跃的领域,应用非常广泛,如人脸识别和无人驾驶中的机器视觉等。该领域的发展日新月异,网络模型和算法层出不穷。如何快速入门并达到可以从事研发的高度对新手和中级水平的学生而言面临不少的挑战。精心准备的本课程希望帮助大家尽快掌握基于深度学习的计算机视觉的基本原理、核心算法和当前的领先技术,从而有望成为深度学习之计算机视觉方向的算法工程师和研发人员。本课程系统全面地讲述基于深度学习的计算机视觉技术的原理并进行项目实践。课程涵盖计算机视觉的七大任务,包括图像分类、目标检测、图像分割(语义分割、实例分割、全景分割)、人脸识别、图像描述、图像检索、图像生成(利用生成对抗网络)。本课程注重原理和实践相结合,逐篇深入解读经典和前沿论文70余篇,图文并茂破译算法难点, 使用思维导图梳理技术要点。项目实践使用Keras框架(后端为Tensorflow),学员可快速上手。通过本课程的学习,学员可把握基于深度学习的计算机视觉的技术发展脉络,掌握相关技术原理和算法,有助于开展该领域的研究与开发实战工作。另外,深度学习之计算机视觉方向的知识结构及学习建议请参见本人优快云博客。本课程提供课程资料的课件PPT(pdf格式)和项目实践代码,方便学员学习和复习。本课程分为上下两部分,其中上部包含课程的前五章(课程介绍、深度学习基础、图像分类、目标检测、图像分割),下部包含课程的后四章(人脸识别、图像描述、图像检索、图像生成)。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值