今天在写代码的时候遇到一个挺有趣的bug,我也是找了半天才查到资料解决的。
bug描述如下:
用训练好的caffemode做infernece(inference函数代码如下):
#进行预测
def inference(img, transformer, net, labelnames):
#img = caffe.io.load_image(img_name, True)
transformed_image = transformer.preprocess('data',img)
net.blobs['data'].data[...] = transformed_image
output = net.forward()
result = output['prob'][0].argmax()
print result
print labelnames[result]
由于我写的是一个比较大的程序,前面的得到的图像块,在后面用CNN做识别,所以在inference时直接传的是numpy格式的矩阵,结果发现识别的结果非常差(这应该是不可能的,因为我用的是已经训练好的caffemodel),开始我认为可能是内存中图像的问题,所以我把图像保存下来自己看了一下,发现没任何问题。这就让我抓瞎了= =
我想要不就直接读这些保存下来的图像做识别(修改后的inference代码如下)