博主刚期末考完,就又又又被抓来干活了!这次的任务是!帮学长的论文实验的分割结果与正确的分割结果(ground truth)做个对比,给出测评结果。于是,我就找了目前几个主流的评测指标如下:
-
Pixel Accuracy(PA,像素精度):这是最简单的度量,为标记正确的像素占总像素的比例。
-
Mean Pixel Accuracy(MPA,均像素精度):是PA的一种简单提升,计算每个类内被正确分类像素数的比例,之后求所有类的平均。
-
Mean Intersection over Union(MIoU,均交并比):为语义分割的标准度量。其计算两个集合的交集和并集之比,在语义分割的问题中,这两个集合为真实值(ground truth)和预测值(predicted segmentation)。这个比例可以变形为正真数(intersection)比上真正、假负、假正(并集)之和。在每个类上计算IoU,之后平均。(最常用)
-
Frequency Weighted Intersection over Union(FWIoU,频权交并比):为MIoU的一种提升,这种方法根据每个类出现的频率为其设置权重。
我们选用的评测度量是MIOU,下面介绍一下MIOU衡量的具体思想。
如图所示,A代表ground truth,B代表预测样本。针对预测值和真实值之间的关系,我们可以将样本分成以下四部分(这是论文中常见的四个名称,看了一学期的论文现在我才顿悟啊!真的菜!!) -
真正值(TP):预测值为1,真实值为1;橙色,A∩B
-
真负值(TN):预测值为0,真实值为0;白色,~(A∪B)
-
假正值(FP):预测值为1,真实值为0;黄色,B-(A∩B)
-
假负值(FN):预测值为0,真实值为1;绿色,A-(A∩B)
MIOU=TP/(FP+FN+TP)
接下来给出计算MIOU的核心代码,基于此篇博客进行更加详细地说明和相应的改写(因为实验所用的数据集是VOC2011,不是CITYSCAPES)(https://blog.youkuaiyun.com/jiongnima/article/details/84750819)
#!/usr/bin/python
# -*- coding: utf-8 -*-
import numpy as np
import argparse
import json
from PIL import Image
from os.path import join
#设标签宽W,长H
def fast_hist(a, b, n):#a是转化成一维数组的标签,形状(H×W,);b是转化成一维数组的标签,形状(H×W,);n是类别数目,实数(在这里为19)
'''
核心代码
'''
k = (a >= 0) & (a < n) #k是一个一维bool数组,形状(H×W,);目的是找出标签中需要计算的类别(去掉了背景) k=0或1
return np.bincount(n * a[k].astype(int) + b[k], minlength=n ** 2).reshape(n, n)#np.bincount计算了从0到n**2-1这n**2个数中每个数出现的次数,返回值形状(n, n)
def per_clas