(0,1)---81*30*2---(1,0)(0,1) (x,1)
做一个网络来分类mnist的0和1,然后用这个网络来分类(x,1),让x分别是mnist的0-9.收敛误差是1E-4,重复199次,分别测量1-0位和0-1位的分类准确率,统计平均值,得到表格
|
0*1 |
x-1 | |||||||
|
f2[0] |
f2[1] |
迭代次数n |
平均准确率p-ave |
1-0 |
0-1 |
δ | ||
|
0 |
1 |
8.42E-05 |
0.9999158 |
5301.6482 |
0.9968387 |
0.9946342 |
0.9990432 |
1.00E-04 |
|
1 |
1 |
8.59E-05 |
0.9999139 |
5303.5779 |
1 |
1 |
1 |
1.00E-04 |
|
2 |
1 |
8.48E-05 |
0.9999153 |
5301.0854 |
0.7409729 |
0.4829186 |
0.9990271 |
1.00E-04 |
|
3 |
1 |
8.47E-05 |
0.9999153 |
5337.0553 |
0.704391 |
0.4097538 |
0.9990281 |
1.00E-04 |
|
4 |
1 |
8.54E-05 |
0.9999145 |
5303.2965 |
0.7979352 |
0.5968281 |
0.9990422 |
1.00E-04 |
|
5 |
1 |
8.45E-05 |
0.9999156 |
5298.8744 |
0.7834668 |
0.5679126 |
0.9990211 |
1.00E-04 |
|
6 |
1 |
8.48E-05 |
0.9999151 |
5317.2563 |
0.8179779 |
0.6369206 |
0.9990352 |
1.00E-04 |
|
7 |
1 |
8.53E-05 |
0.9999147 |
5308.5628 |
0.716899 |
0.4347719 |
0.9990261 |
1.00E-04 |
|
8 |
1 |
8.47E-05 |
0.9999153 |
5303.4372 |
0.6274065 |
0.2557628 |
0.9990503 |
1.00E-04 |
|
9 |
1 |
8.49E-05 |
0.9999151 |
5323.5176 |
0.7216884 |
0.4443739 |
0.999003 |
1.00E-04 |
0-1位对1的分类准确率是很稳定的,当分类(1,1)时,因为左右相同所以网络无论判断是左边还是右边都对,因此分类准确率是100%。但用1-0位分类1的准确率应该是约为1-0.9991276,现在将1-0位的分类准确率排序
|
1 |
8 |
3 |
7 |
9 |
2 |
5 |
4 |
6 |
0 |
|
0.000872 |
0.255763 |
0.409754 |
0.434772 |
0.444374 |
0.482919 |
0.567913 |
0.596828 |
0.636921 |
0.994634 |
有理由猜测与0长的像的分类准确率应该更高.
然后用同样的办法
(0,2)---81*30*2---(1,0)(0,1) (x,2)
做一个分类(0,2)的网络,并用这个网络分类(x,2),让x分别是mnist的0-9.得到表格
|
0*2 |
x-2 | ||||||
|
f2[0] |
f2[1] |
迭代次数n |
平均准确率p-ave |
1-0 |
0-1 | ||
|
0 |
2 |
8.77E-05 |
0.9999122 |
3220.4221 |
0.9745819 |
0.9630462 |
0.9861176 |
|
1 |
2 |
8.91E-05 |
0.9999107 |
3184.1709 |
0.4940291 |
0.0019648 |
0.9860935 |
|
2 |
2 |
8.81E-05 |
0.9999122 |
3201.0754 |
1 |
1 |
1 |
|
3 |
2 |
8.86E-05 |
0.9999114 |
3222.402 |
0.6243829 |
0.262602 |
0.9861638 |
|
4 |
2 |
8.87E-05 |
0.9999114 |
3250.8543 |
0.565998 |
0.1459377 |
0.9860583 |
|
5 |
2 |
8.81E-05 |
0.9999116 |
3228.593 |
0.7576985 |
0.5291387 |
0.9862583 |
|
6 |
2 |
8.80E-05 |
0.999912 |
3214.2513 |
0.5560045 |
0.1258181 |
0.986191 |
|
7 |
2 |
9.00E-05 |
0.9999097 |
3236.7035 |
0.718502 |
0.4506804 |
0.9863236 |
|
8 |
2 |
8.89E-05 |
0.9999113 |
3204.2613 |
0.5305266 |
0.0747075 |
0.9863457 |
|
9 |
2 |
8.79E-05 |
0.9999122 |
3248.5226 |
0.6095367 |
0.2321497 |
0.9869236 |
用同样的办法可以得到另一组排序
|
1 |
2 |
8 |
6 |
4 |
9 |
3 |
7 |
5 |
0 |
|
0.001965 |
0.012352 |
0.074708 |
0.125818 |
0.145938 |
0.23215 |
0.262602 |
0.45068 |
0.529139 |
0.963046 |
而这组排序与第一组排序不同。
所以应该如何解释与0相似的图片竟然有两种不同的排序这个明显矛盾的事实?一种可能的解释,参数迁移表达的相互作用,作用的主体是x和(A,B),A和B作为一个整体,B的不同导致(A,B)整体的性质发生变化,并进一步导致x与A的相似性发生变化。这就意味着如果B有任意种,则x和A的相似性就有任意种。 也就表明如果在一个外部环境B中,评价x和A的形态相似性,相似性将随着B的变化而变化,x与A在第三方外部环境中的形态相似性是相对的,没有唯一正确答案。
可以把B理解为分类原点,分类准确率作为x到A的距离,由于形态没有内在递进规律,B的改变导致形态数轴上的点x被重排。
本文通过构建网络分类MNIST手写数字0和1,分析了不同数字分类准确率的变化,并通过比较不同网络对同一组数据的分类效果,探讨了数字形状之间的相似性和外部环境对其的影响。
2479

被折叠的 条评论
为什么被折叠?



