faster rcnn修改demo.py保存网络中间结果

本文介绍了如何使用Python版本的Faster R-CNN进行目标检测,并通过修改代码来可视化网络中特定阶段的特征图。重点在于展示如何在不同网络层上进行检测,并对检测结果进行可视化呈现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

faster rcnn用python版本https://github.com/rbgirshick/py-faster-rcnn

以demo.py中默认网络VGG16.

原本demo.py地址https://github.com/rbgirshick/py-faster-rcnn/blob/master/tools/demo.py

图有点多,贴一个图的本分结果出来:


上图是原图,下面第一张是网络中命名为“conv1_1”的结果图;第二张是命名为“rpn_cls_prob_reshape”的结果图;第三张是“rpnoutput”的结果图

看一下我修改后的代码:

#!/usr/bin/env python

# --------------------------------------------------------
# Faster R-CNN
# Copyright (c) 2015 Microsoft
# Licensed under The MIT License [see LICENSE for details]
# Written by Ross Girshick
# --------------------------------------------------------

"""
Demo script showing detections in sample images.

See README.md for installation instructions before running.
"""

import _init_paths
from fast_rcnn.config import cfg
from fast_rcnn.test import im_detect
from fast_rcnn.nms_wrapper import nms
from utils.timer import Timer
import matplotlib.pyplot as plt
import numpy as np
import scipy.io as sio
import caffe, os, sys, cv2
import argparse
import math

CLASSES = ('__background__',
           'aeroplane', 'bicycle', 'bird', 'boat',
           'bottle', 'bus', 'car', 'cat', 'chair',
           'cow', 'diningtable', 'dog', 'horse',
           'motorbike', 'person', 'pottedplant',
           'sheep', 'sofa', 'train', 'tvmonitor')

NETS = {'vgg16': ('VGG16',
                  'VGG16_faster_rcnn_final.caffemodel'),
        'zf': ('ZF',
                  'ZF_faster_rcnn_final.caffemodel')}


def vis_detections(im, class_name, dets, thresh=0.5):
    """Draw detected bounding boxes."""
    inds = np.where(dets[:, -1] >= thresh)[0]
    if len(inds) == 0:
        return

    im = im[:, :, (2, 1, 0)]
    fig, ax = plt.subplots(figsize=(12, 12))
    ax.imshow(im, aspect='equal')
    for i in inds:
        bbox = dets[i, :4]
        score = dets[i, -1]

        ax.add_patch(
            plt.Rectangle((bbox[0], bbox[1]),
                          bbox[2] - bbox[0],
                          bbox[3] - bbox[1], fill=False,
                          edgecolor='red', linewidth=3.5)
            )
        ax.text(bbox[0], bbox[1] - 2,
                '{:s} {:.3f}'.format(class_name, score),
                bbox=dict(facecolor='blue', alpha=0.5),
                fontsize=14, color='white')

    ax.set_title(('{} detections with '
                  'p({} | box) >= {:.1f}').format(class_name, class_name,
                                                  thresh),
                  fontsize=14)
    plt.axis('off')
    plt.tight_layout()
    #plt.draw()
def save_feature_picture(data, name, image_name=None, padsize = 1, padval = 1):
    data = data[0]
    #print "data.shape1: ", data.shape
    n = int(np.ceil(np.sqrt(data.shape[0])))
    padding = ((0, n ** 2 - data.shape[0]), (0, 0), (0, padsize)) + ((0, 0),) * (data.ndim - 3)
    #print "padding: ", padding
    data = np.pad(data, padding, mode='constant', constant_values=(padval, padval))
    #print "data.shape2: ", data.shape
    
    data = data.reshape((n, n) + data.shape[1:]).transpose((0, 2, 1, 3) + tuple(range(4, data.ndim + 1)))
    #print "data.shape3: ", data.shape, n
    data = data.reshape((n * data.shape[1], n * data.shape[3]) + data.shape[4:])
    #print "data.shape4: ", data.shape
    plt.figure()
    plt.imshow(data,cmap='gray')
    plt.axis('off')
    #plt.show()
    if image_name == None:
        img_path = './data/feature_picture/' 
    else:
        img_path = './data/feature_picture/' + image_name + "/"
        check_file(img_path)
    plt.savefig(img_path + name + ".jpg", dpi = 400, bbox_inches = "tight")
def check_file(path):
    if not os.path.exists(path):
        os.mkdir(path)
def demo(net, image_name):
    """Detect object classes in an image using pre-computed object proposals."""

    # Load the demo image
    im_file = os.path.join(cfg.DATA_DIR, 'demo', image_name)
    im = cv2.imread(im_file)

    # Detect all object classes and regress object bounds
    timer = Timer()
    timer.tic()
    scores, boxes = im_detect(net, im)
    for k, v in net.blobs.items():
        if k.find("conv")>-1 or k.find("pool")>-1 or k.find("rpn")>-1:
            save_feature_picture(v.data, k.replace("/", ""), image_name)#net.blobs["conv1_1"].data, "conv1_1") 
    timer.toc()
    print ('Detection took {:.3f}s for '
           '{:d} object proposals').format(timer.total_time, boxes.shape[0])

    # Visualize detections for each class
    CONF_THRESH = 0.8
    NMS_THRESH = 0.3
    for cls_ind, cls in enumerate(CLASSES[1:]):
        cls_ind += 1 # because we skipped background
        cls_boxes = boxes[:, 4*cls_ind:4*(cls_ind + 1)]
        cls_scores = scores[:, cls_ind]
        dets = np.hstack((cls_boxes,
                          cls_scores[:, np.newaxis])).astype(np.float32)
        keep = nms(dets, NMS_THRESH)
        dets = dets[keep, :]
        vis_detections(im, cls, dets, thresh=CONF_THRESH)

def parse_args():
    """Parse input arguments."""
    parser = argparse.ArgumentParser(description='Faster R-CNN demo')
    parser.add_argument('--gpu', dest='gpu_id', help='GPU device id to use [0]',
                        default=0, type=int)
    parser.add_argument('--cpu', dest='cpu_mode',
                        help='Use CPU mode (overrides --gpu)',
                        action='store_true')
    parser.add_argument('--net', dest='demo_net', help='Network to use [vgg16]',
                        choices=NETS.keys(), default='vgg16')

    args = parser.parse_args()

    return args

def print_param(net):
    for k, v in net.blobs.items():
	print (k, v.data.shape)
    print ""
    for k, v in net.params.items():
	print (k, v[0].data.shape)  

if __name__ == '__main__':
    cfg.TEST.HAS_RPN = True  # Use RPN for proposals

    args = parse_args()

    prototxt = os.path.join(cfg.MODELS_DIR, NETS[args.demo_net][0],
                            'faster_rcnn_alt_opt', 'faster_rcnn_test.pt')
    #print "prototxt: ", prototxt
    caffemodel = os.path.join(cfg.DATA_DIR, 'faster_rcnn_models',
                              NETS[args.demo_net][1])

    if not os.path.isfile(caffemodel):
        raise IOError(('{:s} not found.\nDid you run ./data/script/'
                       'fetch_faster_rcnn_models.sh?').format(caffemodel))

    if args.cpu_mode:
        caffe.set_mode_cpu()
    else:
        caffe.set_mode_gpu()
        caffe.set_device(args.gpu_id)
        cfg.GPU_ID = args.gpu_id
    net = caffe.Net(prototxt, caffemodel, caffe.TEST)
    
    #print_param(net)

    print '\n\nLoaded network {:s}'.format(caffemodel)

    # Warmup on a dummy image
    im = 128 * np.ones((300, 500, 3), dtype=np.uint8)
    for i in xrange(2):
        _, _= im_detect(net, im)

    im_names = ['000456.jpg', '000542.jpg', '001150.jpg',
                '001763.jpg', '004545.jpg']
    for im_name in im_names:
        print '~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~'
        print 'Demo for data/demo/{}'.format(im_name)
        demo(net, im_name)

    #plt.show()
1.在data下手动创建“feature_picture”文件夹就可以替换原来的demo使用了。

2.上面代码主要添加方法是:save_feature_picture,它会对网络测试的某些阶段的数据处理然后保存。

3.某些阶段是因为:if k.find("conv")>-1 or k.find("pool")>-1 or k.find("rpn")>-1这行代码(110行),保证网络层name有这三个词的才会被保存,因为其他层无法用图片

保存,如全连接(参数已经是二维的了)等层。

4.放开174行print_param(net)的注释,就可以看到网络参数的输出。

5.执行的最终结果 是在data/feature_picture产生以图片名字为文件夹名字的文件夹,文件夹下有以网络每层name为名字的图片。

6.另外部分网络的层name中有非法字符不能作为图片名字,我在代码的111行只是把‘字符/’剔除掉了,所以建议网络名字不要又其他字符。

图片下载和代码下载方式:

git clone https://github.com/meihuakaile/faster-rcnn.git

<think>好的,我现在要处理用户的问题:当运行python demo.py时,是哪个文件调用了/mmdet/core/evaluation/class_names.py。用户之前询问过关于MMDeploy的警告信息,现在转向了MMDetection的代码结构,特别是关于class_names.py的调用路径。 首先,我需要确认用户的使用场景。他们可能在运行目标检测的demo脚本时遇到了问题,或者想了解代码内部的调用关系。用户可能对MMDetection框架不太熟悉,想通过了解代码结构来解决警告或错误,比如类别名称不匹配的问题。 接下来,用户的真实需求可能是想定位到具体哪个模块调用了class_names.py,以便进行调试或修改。深层需求可能包括解决类别名称加载不正确的问题,或者自定义数据集时的配置调整。 我需要回忆MMDetection的代码结构。class_names.py通常用于定义数据集类别名称,例如COCO、VOC等。当运行demo.py时,通常会加载模型,进行推理,并可视化结果,这时需要知道类别名称来正确显示标签。 在MMDetection中,demo.py脚本一般会通过模型配置加载类别信息。模型的配置文件中会指定数据集的元信息,包括CLASSES。当模型加载时,会从配置文件的metainfo中获取类别名称。如果配置中没有指定,可能会回退到默认的COCO类,导致用户之前的警告。 那么,具体是哪个文件调用了class_names.py呢?可能需要查看demo.py的代码流程。demo.py通常会调用inference_detector函数,该函数位于apis/inference.py中。在加载模型时,会从checkpoint中读取meta信息,如果不存在,则使用配置中的metainfo。而class_names.py可能在datasets目录下被引用,用于根据数据集类型获取默认的类别列表。 例如,当配置文件中没有指定metainfo时,代码可能会调用get_classes函数,该函数位于datasets/coco.py或其他数据集文件中,而这类文件可能导入了class_names.py中的常量。或者在评估过程中,class_names.py被用来映射类别索引到名称。 不过,用户提到的路径是/mmdet/core/evaluation/class_names.py,这可能是在旧版本的MMDetection中的路径,现在可能已经有所调整。比如在较新的版本中,数据集的元信息处理可能转移到了其他地方,或者该文件已经被重构。 我需要确认MMDetection的最新代码结构。查看GitHub上的MMDetection仓库,发现class_names.py可能已经不再存在,或者被整合到其他模块中。例如,现在每个数据集类(如CocoDataset)会在自己的定义中包含CLASSES属性,而评估相关的函数可能直接从模型的metainfo中获取类别名称,而不是通过class_names.py。 因此,用户提到的class_names.py可能属于旧版本,或者是在特定上下文中被调用。如果用户在使用较新版本的MMDetection,可能不会直接调用该文件,而是通过模型的配置来获取类别信息。 可能的调用链是:demo.py -> 加载模型配置 -> 创建数据集实例 -> 数据集类中定义了CLASSES -> 评估时使用这些CLASSES。如果在模型配置中正确设置了metainfo,就不会出现警告,否则回退到默认的COCO类。 所以,用户的问题可能源于他们的配置文件中没有正确设置metainfo,导致demo.py在运行时找不到类别名称,从而回退到默认的COCO,触发警告。要解决这个问题,用户需要按照之前提供的方法,在配置文件中正确设置CLASSES,或者在加载模型时显式传递类别名称。 总结来说,用户需要检查他们的模型配置文件,确保metainfo中的CLASSES正确,这样在运行demo.py时就能正确加载类别名称,而不是依赖class_names.py中的默认值。可能在新版本中,该文件已经被移除或重构,因此重点应放在配置文件的正确性上,而非具体的文件调用路径。</think>在 MMDetection 框架中,`class_names.py` 的调用路径主要与 **数据集元信息加载** 和 **可视化** 两个环节相关。以下是具体调用关系的技术解析: --- ### 核心调用链(以 `demo/image_demo.py` 为例) ```python demo.py → mmdet/apis/inference.py (inference_detector) → mmdet/models/detectors/base.py (BaseDetector) → mmdet/registry/registry.py (MODELS) → mmdet/datasets/coco.py (CocoDataset) → mmdet/core/evaluation/class_names.py (get_classes) ``` --- ### 关键调用节点说明 #### 1. **模型初始化阶段** 当通过 `init_detector` 加载模型时: ```python # mmdet/apis/inference.py def init_detector(config, checkpoint, device='cuda:0'): model = build_detector(config.model) model.CLASSES = config.get('metainfo', {}).get('CLASSES', None) # ← 关键赋值 ``` 此时会从配置文件 `config` 的 `metainfo` 字段获取类别名称。**若未配置则会触发回退机制**。 --- #### 2. **类别回退机制** 当模型元信息缺失时,代码会通过 `CocoDataset` 类调用: ```python # mmdet/datasets/coco.py class CocoDataset(BaseDataset): CLASSES = get_classes('coco') # ← 调用 class_names.py ``` 这里实际执行的代码: ```python # mmdet/core/evaluation/class_names.py def get_classes(dataset_type): if dataset_type == 'coco': return coco_classes() # ← 返回 COCO 80 类名称 elif dataset_type == 'voc': return voc_classes() ... ``` --- #### 3. **可视化阶段** 当调用 `show_result_pyplot` 绘制结果时: ```python # mmdet/visualization/local_visualizer.py def visualize_cam( self, image: np.ndarray, result: list, class_names: list = None # ← 最终使用 CLASSES 的地方 ): class_names = class_names or self.dataset_meta.get('CLASSES', None) # 绘制类别标签时会直接使用 class_names 列表 ``` --- ### 典型调试场景 #### 场景:自定义数据集警告 当出现 `UserWarning: Class names are not saved...` 时,说明模型加载路径为: ```text config.model → model.CLASSES → 未设置 → 回退到 CocoDataset.CLASSES ``` --- ### 解决方案(定位到代码层) #### 1. **强制指定类别名** 在 `demo.py` 中直接覆盖: ```python from mmdet.apis import init_detector model = init_detector(config, checkpoint) model.CLASSES = ('cat', 'dog', 'person') # ← 硬编码覆盖 ``` #### 2. **修改模型元数据** 在配置文件(如 `faster_rcnn_r50_fpn.py`)中添加: ```python metainfo = dict(CLASSES=('cat', 'dog', 'person')) ``` --- ### 调试技巧 在 `class_names.py` 中添加调试语句: ```python # mmdet/core/evaluation/class_names.py def get_classes(dataset_type): print(f"⚠️ DEBUG: 正在加载 {dataset_type} 类别") # ← 添加打印 if dataset_type == 'coco': return coco_classes() ... ``` 运行后若看到该输出,即可确认调用路径。 --- ### 版本差异说明 | MMDetection 版本 | 行为差异 | |----------------|---------| | < 3.0 | 直接从 `class_names.py` 硬编码加载 | | ≥ 3.0 | 优先使用配置文件中的 `metainfo.CLASSES` | 建议通过 `print(model.CLASSES)` 直接验证最终加载的类别列表。
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值