背景
昨天试图用自动标定的png图片来训练deeplabv3+,结果很差,预计结果和原图差距大概有这么大:


无奈之下只好另寻它法。今天用matlab重新将矩阵转换为了无标定的数据,矩阵的值对应灰度值,希望有用。为了探寻所有图片中最大的分类,写了一个呆瓜代码。
方法
# -*- coding:utf-8 -*-
# author:zzm
# datetime:2021/11/26 21:12
from PIL import Image
import numpy as np
#最大值i
i=0
#遍历五千张图片
for z in range(1,5001):
#将png图片转换成矩阵
image = Image.open(r'C:/Users/zzm/Desktop/k_pictrue/k_pictrue/wrap('+str(z)+').png').convert('L')
images = np.asarray(image) # 转化成矩阵以后,iamges中存储的是图片的像素值。
#经典笨蛋方法比大小
for x in range(256):
for y in range(256):
if images[x][y]>i:
i=images[x][y]
#输出最大分类值
print(i)
可以看到,import numpy,但是没有用到numpy。好在电脑还可以,几分钟就跑完了。如果numpy有方法改写应该几秒钟就处理好了吧。。。最后输出是15。果然昨天启发式方法设置的20类有点多了。。。难怪训练15个epoch之后验证集的错误率就降不下去了。。。
结论
可能很多时间还是花在读取图片上了,和numpy不numpy的没啥关系。
5898

被折叠的 条评论
为什么被折叠?



