(0,1)---81*30*2---(1,0)(0,1) (x,1)
做一个网络来分类mnist的0和1,然后用这个网络来分类(x,1),让x分别是mnist的0-9.收敛误差是1E-4,重复199次,分别测量1-0位和0-1位的分类准确率,统计平均值,得到表格
0*1 | x-1 | |||||||
f2[0] | f2[1] | 迭代次数n | 平均准确率p-ave | 1-0 | 0-1 | δ | ||
0 | 1 | 8.42E-05 | 0.9999158 | 5301.6482 | 0.9968387 | 0.9946342 | 0.9990432 | 1.00E-04 |
1 | 1 | 8.59E-05 | 0.9999139 | 5303.5779 | 1 | 1 | 1 | 1.00E-04 |
2 | 1 | 8.48E-05 | 0.9999153 | 5301.0854 | 0.7409729 | 0.4829186 | 0.9990271 | 1.00E-04 |
3 | 1 | 8.47E-05 | 0.9999153 | 5337.0553 | 0.704391 | 0.4097538 | 0.9990281 | 1.00E-04 |
4 | 1 | 8.54E-05 | 0.9999145 | 5303.2965 | 0.7979352 | 0.5968281 | 0.9990422 | 1.00E-04 |
5 | 1 | 8.45E-05 | 0.9999156 | 5298.8744 | 0.7834668 | 0.5679126 | 0.9990211 | 1.00E-04 |
6 | 1 | 8.48E-05 | 0.9999151 | 5317.2563 | 0.8179779 | 0.6369206 | 0.9990352 | 1.00E-04 |
7 | 1 | 8.53E-05 | 0.9999147 | 5308.5628 | 0.716899 | 0.4347719 | 0.9990261 | 1.00E-04 |
8 | 1 | 8.47E-05 | 0.9999153 | 5303.4372 | 0.6274065 | 0.2557628 | 0.9990503 | 1.00E-04 |
9 | 1 | 8.49E-05 | 0.9999151 | 5323.5176 | 0.7216884 | 0.4443739 | 0.999003 | 1.00E-04 |
0-1位对1的分类准确率是很稳定的,当分类(1,1)时,因为左右相同所以网络无论判断是左边还是右边都对,因此分类准确率是100%。但用1-0位分类1的准确率应该是约为1-0.9991276,现在将1-0位的分类准确率排序
1 | 8 | 3 | 7 | 9 | 2 | 5 | 4 | 6 | 0 |
0.000872 | 0.255763 | 0.409754 | 0.434772 | 0.444374 | 0.482919 | 0.567913 | 0.596828 | 0.636921 | 0.994634 |
有理由猜测与0长的像的分类准确率应该更高.
然后用同样的办法
(0,2)---81*30*2---(1,0)(0,1) (x,2)
做一个分类(0,2)的网络,并用这个网络分类(x,2),让x分别是mnist的0-9.得到表格
0*2 | x-2 | ||||||
f2[0] | f2[1] | 迭代次数n | 平均准确率p-ave | 1-0 | 0-1 | ||
0 | 2 | 8.77E-05 | 0.9999122 | 3220.4221 | 0.9745819 | 0.9630462 | 0.9861176 |
1 | 2 | 8.91E-05 | 0.9999107 | 3184.1709 | 0.4940291 | 0.0019648 | 0.9860935 |
2 | 2 | 8.81E-05 | 0.9999122 | 3201.0754 | 1 | 1 | 1 |
3 | 2 | 8.86E-05 | 0.9999114 | 3222.402 | 0.6243829 | 0.262602 | 0.9861638 |
4 | 2 | 8.87E-05 | 0.9999114 | 3250.8543 | 0.565998 | 0.1459377 | 0.9860583 |
5 | 2 | 8.81E-05 | 0.9999116 | 3228.593 | 0.7576985 | 0.5291387 | 0.9862583 |
6 | 2 | 8.80E-05 | 0.999912 | 3214.2513 | 0.5560045 | 0.1258181 | 0.986191 |
7 | 2 | 9.00E-05 | 0.9999097 | 3236.7035 | 0.718502 | 0.4506804 | 0.9863236 |
8 | 2 | 8.89E-05 | 0.9999113 | 3204.2613 | 0.5305266 | 0.0747075 | 0.9863457 |
9 | 2 | 8.79E-05 | 0.9999122 | 3248.5226 | 0.6095367 | 0.2321497 | 0.9869236 |
用同样的办法可以得到另一组排序
1 | 2 | 8 | 6 | 4 | 9 | 3 | 7 | 5 | 0 |
0.001965 | 0.012352 | 0.074708 | 0.125818 | 0.145938 | 0.23215 | 0.262602 | 0.45068 | 0.529139 | 0.963046 |
而这组排序与第一组排序不同。
所以应该如何解释与0相似的图片竟然有两种不同的排序这个明显矛盾的事实?一种可能的解释,参数迁移表达的相互作用,作用的主体是x和(A,B),A和B作为一个整体,B的不同导致(A,B)整体的性质发生变化,并进一步导致x与A的相似性发生变化。这就意味着如果B有任意种,则x和A的相似性就有任意种。 也就表明如果在一个外部环境B中,评价x和A的形态相似性,相似性将随着B的变化而变化,x与A在第三方外部环境中的形态相似性是相对的,没有唯一正确答案。
可以把B理解为分类原点,分类准确率作为x到A的距离,由于形态没有内在递进规律,B的改变导致形态数轴上的点x被重排。