
用神经网络模拟原子
文章平均质量分 54
训练集:Fock矩阵,权重:系数,分类准确率:能级
黑榆
这个作者很懒,什么都没留下…
展开
-
将移位距离和假设外推到非二值化问题
用神经网络分类A和B,把参与分类的A和B中的数字看作是组成A和B的粒子,分类的过程就是让A和B中的粒子互相交换位置,寻找最短移位路径的过程。而熵H与最短移位距离和成正比,迭代次数n和熵H成反比。移位规则汇总每个粒子移位一次,位置重合不移位,0不动,单次移位距离如果以1为底等于1-元素数值若以0为底则为元素本身。...原创 2022-08-01 16:09:31 · 355 阅读 · 0 评论 -
神经网络迭代次数的一个近似关系
用神经网络分类A和B,把参与分类的A和B中的数字看作是组成A和B的粒子,分类的过程就是让A和B中的粒子互相交换位置,寻找最短移位路径的过程。而熵H与最短移位距离和成正比,迭代次数n和熵H成反比。对二值化图片移位规则汇总每个粒子移位一次,位置重合不移位,0不动,单次移位距离恒为1....原创 2022-07-29 16:22:55 · 257 阅读 · 0 评论 -
移位距离和假设的应用
用神经网络分类A和B,把参与分类的A和B中的数字看作是组成A和B的粒子,分类的过程就是让A和B中的粒子互相交换位置,寻找最短移位路径的过程。而熵H与最短移位距离和成正比,迭代次数n和熵H成反比。...原创 2022-07-25 16:05:47 · 386 阅读 · 0 评论 -
用训练集去重构权重空间的几何形态
权重的分布特征,按列分布,同列正负对称,0列1列正负对称。 满足这些条件的所有可能性都是合理的。权重的列分成4种情况,A的0列,B的0列,AB重合的0列,AB重合的1列。这次实验也表明了,权重空间的0列和1列的所在位置与训练集0和1的位置是一致的,0列比1列的绝对值要大。...原创 2022-07-15 16:08:27 · 190 阅读 · 0 评论 -
高斯定理在神经网络上的投影
神经网络的分类过程就是用一套权重让形态A变换成形态B,再让形态B变换成形态A。也就是让组成A的粒子移动到(0,1)位,让组成B的粒子移动到(1,0)位。用电池做类比A的粒子是由正极到负极,而B的粒子是由负极到正极,。所以A和B粒子的运动事实上形成了一个闭合的回路。而权重就是粒子运动的空间本身,按照高斯定律权重空间一定有一个仅仅和移位粒子数量有关的物理表象。...原创 2022-07-12 16:07:11 · 750 阅读 · 4 评论 -
用移位距离和标定神经网络迭代次数
用神经网络分类A和B,把参与分类的A和B中的数字看作是组成A和B的粒子,分类的过程就是让A和B中的粒子互相交换位置,寻找最短移位路径的过程。而熵H与最短移位距离和成正比,迭代次数n和熵H成反比。对二值化图片移位规则汇总每个粒子移位一次,位置重合不移位,0不动,单次移位距离恒为1....原创 2022-07-04 16:08:02 · 326 阅读 · 0 评论 -
让两条纸带缠绕成螺旋
按照移动距离和假设,神经网络相当于用一套权重实现了两条纸带的移位。并由于反向传导的机制使得神经网络有了一种自求解的功能。原创 2022-07-02 16:07:59 · 241 阅读 · 0 评论 -
用神经网络验算1+1是否等于0+2
按照移动距离和假设,二值化图片的迭代次数仅取决于两张图片不重合点的数量。在不重合点的数量一致的情况下,迭代次数相同原创 2022-06-30 16:09:18 · 271 阅读 · 0 评论 -
分类,移位和迭代次数
用神经网络分类A和B,把参与分类的A和B中的数字看作是组成A和B的粒子,分类的过程就是让A和B中的粒子互相交换位置,寻找最短移动路径的过程。而熵H与最短移动距离和成正比,迭代次数n和熵H成反比。对二值化图片移动规则汇总每个粒子移动一次,位置重合不移动,0不动,单次移动距离恒为1....原创 2022-06-28 16:06:13 · 132 阅读 · 0 评论 -
一种离散化的编程策略
按照移动距离和假设,神经网络的训练过程事实上就可以分为两个部分,首先将A移向B,再将B移向A。但因为这个过程是通过一套权重来完成的,所以神经网络就是在调和将A移向B,和将B移向A这两种编程逻辑。所以神经网络之所以可以实现较高的分类准确率,是因为充分的考虑了A相对B的差异的同时考虑了B相对于A的差异。并使之成为一个矛盾统一体,所以这不是一种基于连续逻辑的编程策略,而是一种离散化的编程策略。...原创 2022-06-26 16:07:40 · 466 阅读 · 0 评论 -
用神经网络实现一次加法运算
按照移动距离和假设,如果两张图片不重合点的数量分别是a和b,则网络收敛的迭代次数反比与a+b,也就是网络的迭代次数是a+b的函数n=f(a+b)。因此对二值化图片实现一次收敛,就相当于完成了一次加法运算。...原创 2022-06-24 16:07:43 · 915 阅读 · 0 评论 -
计算二值化图片的迭代次数
对于二值化的图片,在网络结构相同的前提下,是可以通过计算不重合点的数量,对迭代次数的大小关系给出一个很合理的解释原创 2022-06-22 16:08:28 · 251 阅读 · 0 评论 -
点的分布对迭代次数的影响
用神经网络分类A和B,把参与分类的A和B中的数字看作是组成A和B的粒子,设分类的过程就是让A和B中的粒子互相交换位置,寻找最短移动路径的过程。而熵H与最短移动距离和成正比,迭代次数n和熵H成反比。对二值化图片移动规则汇总每个粒子移动一次,位置重合不移动,0不动,单次移动距离恒为1....原创 2022-06-20 16:07:51 · 162 阅读 · 0 评论 -
与形态分类行为等价的一种移位操作
所以神经网络的训练过程就是训练了一种移位规则,这个规则可以让A移位成B,同时让B移位成A。所以神经网络的输出位(1,0)的意思就是可以完成由A到B的移位,而(0,1)的意思就是可以完成由B到A的移位。而一个未知的图片x如果被分类A,就意味着x可以完成由A到B的移位,就意味着x更接近A。所以神经网络的分类结果可以理解为取决于x相对A和B的距离...原创 2022-06-18 16:07:04 · 152 阅读 · 0 评论 -
用二值化方法计算神经网络迭代次数的极小值
用神经网络分类A和B,把参与分类的A和B中的数字看作是组成A和B的粒子,设分类的过程就是让A和B中的粒子互相交换位置,寻找最短移动路径的过程。而熵H与最短移动距离和成正比,迭代次数n和熵H成反比。对二值化图片移动规则汇总每个粒子移动一次,位置重合不移动,0不动,单次移动距离恒为1....原创 2022-06-16 16:16:47 · 193 阅读 · 0 评论 -
所谓分类到底是在干什么?
用神经网络分类A和B,把参与分类的A和B中的数字看作是组成A和B的粒子,设分类的过程就是让A和B中的粒子互相交换位置,寻找最短移动路径的过程。而熵H与最短移动距离和成正比,迭代次数n和熵H成反比。对二值化图片移动规则汇总每个粒子移动一次,位置重合不移动,0不动,单次移动距离恒为1....原创 2022-06-13 16:13:00 · 393 阅读 · 1 评论 -
迭代次数的水中倒影
把参与分类的A和B中的数字看作是组成A和B的粒子,设分类的过程就是让A和B中的粒子互相交换位置,寻找最短移动路径的过程。而熵与最短移动距离和成正比,迭代次数和熵成反比。规则汇总每个粒子移动一次,位置重合不移动,0不动,单次移动距离恒为1....原创 2022-06-11 16:09:39 · 101 阅读 · 0 评论 -
分类与最短移动距离和
把参与分类的A和B中的数字看作是组成A和B的粒子,设分类的过程就是让A和B中的粒子互相交换位置,寻找最短移动路径的过程。而熵与最短移动距离和成正比,迭代次数和熵成反比。原创 2022-06-09 16:06:35 · 180 阅读 · 0 评论 -
最短移动距离和与迭代次数
把参与分类的A和B中的数字看作是组成A和B的粒子,设分类的过程就是让A和B中的粒子互相交换位置,寻找最短移动路径的过程。而熵与最短移动距离和成正比,迭代次数和熵成反比原创 2022-06-07 16:13:52 · 312 阅读 · 0 评论 -
形态数轴的非对称等位点
把参与分类的A和B中的数字看作是组成A和B的粒子,设分类的过程就是让A和B中的粒子互相交换位置,迭代次数与熵成反比,而所谓的熵就是粒子最短移动距离和原创 2022-06-06 16:08:59 · 132 阅读 · 0 评论 -
最短移动距离和形态复合体的熵
把参与分类的A和B中的数字看作是组成A和B的粒子,而分类的过程就是让A和B中的粒子互相交换位置,而所谓的熵就是粒子运动的距离原创 2022-06-05 16:07:30 · 93 阅读 · 0 评论 -
荒野觅踪---寻找迭代次数
这个实验验证了迭代次数和熵之间成反比的假设,也某种程度上表明了把完成收敛的0和3看成是一个复合体的可能,表明了对于两个二维形态的熵可以体现一种非递进的二维形态表象,同时也有一个一维的连续的线性递进表象。原创 2022-06-02 16:12:29 · 130 阅读 · 0 评论 -
迭代次数和熵之间关系的一个验证试验
( A , B)---81*30*2---(1,0)(0,1)用神经网络分类A和B,让A是mnist的0,让B是mnist的1-9.用间隔取点的办法把图片缩小成9*9.但让B中非0值的数量分别等于14,14*0.9,14*0.8,…,14*0.2个. 并将所有非0值变成1.与前面实验数据比较二值化对迭代次数的影响。得到实验数据 1 2 3 4 5 ..原创 2022-05-31 16:55:10 · 210 阅读 · 0 评论 -
涌现与形态的局部差异和整体差异
(x,0)---m*n*k---(1,0)(0,1)(x,8)---m*n*k---(1,0)(0,1)用x和0分类,然后再用x和8分类,在同样收敛误差的情况下,是否因为8有两个圆而使得迭代次数是0的两倍?这个答案是否定的。 3 0 8 2 9 6 5 4 7 X:1 ..原创 2022-05-30 16:06:46 · 245 阅读 · 0 评论 -
用java计算小数的双阶乘
双阶乘n!!, n!!≠(n!)! .5!!=5(5-2)(5-4)=5*3*1=15计算公式为其中x可以是正数,负数和0。但不能是负偶数。用java实现了df()函数计算双阶乘,比如double d= df(3.1); //3.2367219415374735double d= df(-3.1); //-0.9804732962114218公式中的gamma函数是用java调用python实现的。d:/工业/hk/python/表达式.csvD:/Do...原创 2022-05-14 16:24:46 · 403 阅读 · 0 评论 -
神经网络学习笔记
两块相同的冰,一块融化成“1”的形状,一块融化成“2”的形状,这两个过程熵的变化是一样的吗?运动是三维的,而温度是一维的。为什么可以用一维的量去描述三维的热运动?是因为假设粒子在平衡位置随机运动,向三个方向上的概率都一致,因此运动可以用1个维度去描述。但是如果粒子在三个维度上运动的概率不一致,怎么才能用一个维度的温度去度量3个维度的运动?如果温度是一个一维的变量,则无论参照物是什么,物体的温度的排序都是一致的。但如果温度是一个多维的变量,那物体的温度排序则可能是可变的。比如在树...原创 2022-05-11 16:12:09 · 194 阅读 · 0 评论 -
黑白像素分布对迭代次数的影响
( A , B)---81*30*2---(1,0)(0,1)用神经网络分类A和B,让A是mnist的0,让B是mnist的1-9.用间隔取点的办法缩小成9*9.但让B中非0值的数量分别等于14,14*0.9,14*0.8,…,14*0.2.比较在非0值数量相同的情况下,0与B分类的迭代次数和非0值的数量的关系。 1 2 3 4 5 6 7 ..原创 2022-05-09 16:08:14 · 398 阅读 · 0 评论 -
图片中非0值的数量对分类的影响
( 0 , 7)---m*n*2---(1,0)(0,1)将mnist的图片用间隔取点的办法缩小成9*9,统计图片中非0点的个数 0 1 2 3 4 5 6 7 8 9 44.4698 27.7134 41.7294 ..原创 2022-05-07 16:12:20 · 192 阅读 · 0 评论 -
熵与形态的非递进现象
现在假如有两个盒子,这两个盒子里有两种不同的粒子A和B,现在假设A排列成0的形状,B排列成1的形状。把两个盒子作为一个整体计算这个整体的熵。让这个熵的为H01,现在让B粒子由1的形状变成2的形状,此时的熵为H02,那H01和H02哪个更大?B分子由于随机运动恰好由1的形态变成了2的形态,这个过程是熵增的还是熵减的?现在假设A粒子不是0的形状,而是3的形状。再让B粒子由1随机运动成2,此时两个盒子的熵的变化量为H32-H31则此时H02-H01与H32-H31之间是什么关系...原创 2022-04-23 16:13:06 · 420 阅读 · 0 评论 -
迭代次数的差异与信息熵
A 5 7 2 4 3 9 1 6 8 0 5402.955 7822.01 8358.603 11983.15 12572.23 13346.79 ...原创 2022-04-18 16:06:31 · 1121 阅读 · 0 评论 -
计算重叠积分的第二种方法
重叠积分可表示为其中其中的F函数就是前文得到的FmNN( int m ,int N, int N1 )方法,gαβ函数就是前文得到的gαβ( int La, int Lb, int λ, int α ,int β )方法,由这个公式得到了第二种计算重叠积分的方法Sab(double R,double za,double zb, int n1,int L1 ,int mm ,int n2 ,int L2 )。如计算double d= Sab ( 2....原创 2022-04-13 16:12:24 · 1537 阅读 · 0 评论 -
对神经网络分类行为的认识二则
“每一种粒子都具有一个固定的自旋值,永远不变,粒子从来不存在开始转得更快或更慢;以ћ作为度量单位,宇宙中每个光子的自旋等于每个希格斯玻色子的自旋等于零;自旋是粒子的固有属性,不是那种随着粒子的演化而变化的量(除非它变换成另一种粒子)。与常规的轨道角动量不同的是,自旋的最小单位是半个ћ而不是一个ћ。电子的自旋为1/2,上夸克的自旋也是1/2。电子自旋是一个重要的相对论特性(与我们在日常生活中遇到的与旋转物体相关的自旋有着本质的区别)。”(A,B)---m*n*k---(1,0)(0,1原创 2022-04-02 16:10:54 · 1005 阅读 · 0 评论 -
Java遗传算法并行多机调度程序
程序有两部分组成,分别是gen和DNA程序。其中gen用来生成50条原始链,作为DNA初始化数据。DNA程序在gen生成的50条链的基础上完成交叉,变异直到找到最优答案。d:/工业/hk/bestLength.csvd:/工业/hk/aaa.csvd:/工业/hk/规划1.csv 初始化数据,30个工件和每个工件的耗时d:/工业/hk/组合.csvd:/工业/hk/矩阵.csvd:/工业/hk/遗传.csv这个程序中有6个本地路径,其中d:/工业/hk/规划1.csv是初始.原创 2022-03-31 16:10:46 · 780 阅读 · 0 评论 -
参数迁移表达的第三种形态相互作用
(0,1)---81*30*2---(1,0)(0,1) (x,1)做一个网络来分类mnist的0和1,然后用这个网络来分类(x,1),让x分别是mnist的0-9.收敛误差是1E-4,重复199次,分别测量1-0位和0-1位的分类准确率,统计平均值,得到表格 0*1 x-1 f2[0] f2[1] 迭代.原创 2022-03-25 16:09:59 · 166 阅读 · 0 评论 -
基于迭代次数的多中心定位分类法
(A,B)---m*n*k---(1,0)(0,1)让A为分类原点,B为分类对象,在收敛误差一定的情况下,统计迭代次数。并将迭代次数作为B到A的距离。这个距离都是特征的,利用这个特征距离足以实现分类。就像距0的距离为d的数字,在x轴正向上只能是d。但是并不排除在形态数轴上可能有单点多值的现象存在,或者可能存在形态c在A为原点的形态数轴上与B的很近,这时可以引入第二条形态数轴实现多点定位的方法来区别B和C(A,B)---m*n*k---(1,0)(0,1) dab(A,C)---m*n*...原创 2022-03-23 16:08:44 · 1442 阅读 · 0 评论 -
基于迭代次数和分类准确率的两种排序
(A,B)---81*30*2---(1,0)(0,1)让分类原点A为mnist的0,分类对象B是1-9,固定收敛误差,统计迭代次数,并将迭代次数作为B到A的距离,得到数轴 A 5 7 2 4 3 9 1 6 8 0 5402.955原创 2022-03-22 16:11:57 · 1626 阅读 · 0 评论 -
形态分类行为中错误图片流向数值统计
(0,2)---m*n*2---(1,0)(0,1) f2[0] f2[1] 迭代次数n 平均准确率p-ave 1-0 0-1 δ 耗时ms/次 耗时ms/199次 耗时 min/199原创 2022-03-21 16:10:05 · 1416 阅读 · 0 评论 -
图片尺寸对分类迭代次数和准确率的影响
(0, 2)---(n*n)*30*2---(1,0)(0,1)做一个网络来分类mnist的0和2,用间隔取点的办法把图片边长n化成n=5,7,9,…,27。共12个不同的值,让网络的收敛误差δ=1e-4,每个收敛误差收敛199次,统计平均值。得到表格 0*2 f2[0] f2[1] 迭代次数n ..原创 2022-03-10 16:06:13 · 2035 阅读 · 0 评论 -
用神经网络分类响尾蛇和牛蛙
(响尾蛇,牛蛙)---m*n*k---(1,0)(0,1)使用imagenet2012作为训练集,响尾蛇和牛蛙的编号分别是n01641577 牛蛙n01755581 菱纹响尾蛇其中响尾蛇的类目有1300张图片,有357个不同的尺寸,从最小的190*122到最大的2592*1944.牛蛙的类目也有1300张图片,有353个不同的尺寸,从最小的160*140到最大的3631*2378.这次实验通过间隔取点的办法把所有图片化成9*9的。网络结构是81*30*2,收敛误差从0.5-1e-5,..原创 2022-03-09 16:06:12 · 172 阅读 · 0 评论 -
形态数轴上的反密码子和氨基酸
tRNA在蛋白质合成中处于关键地位,它不但为每个三联密码子翻译成氨基酸提供了接合体,还为准确无误地将所需氨基酸运送到核糖体上提供了运送载体,所以,它又被称为第二遗传密码研究证实tRNA的性质是由反密码子而不是它所携带的氨基酸所决定的实验证明模板mRNA只能识别特异的tRNA而不是氨基酸。朱玉贤_分子生物学 tRNA上的反密码子和氨基酸之间存在严格的对应关系,反密码子到底是怎么找到氨基酸的?反密码子有61种,氨基酸有20种,他们通过tRNA的作用而相互识别。(分类原点 ,.原创 2022-02-27 16:08:58 · 1075 阅读 · 0 评论