
基于张量网络的机器学习
文章平均质量分 95
shdwak....sad
玛卡巴卡,阿巴阿巴
展开
-
基于张量网络的机器学习(八)
现在让我们先解决一下上一次博客中提出的问题:什么是纠缠熵面积定律?时间演化是什么?时间演化顾名思义就是指随着时间的变化状态发生了改变,在量子力学上就是物理状态和观测量随时间的变化,再具体点就是态矢随时间的演化,由此还能引入时间演化算符的概念,就我所知,时间演化算符与薛定谔方程有着一定的联系,暂时了解这么多。...原创 2021-03-04 01:25:51 · 514 阅读 · 0 评论 -
基于张量网络的机器学习(九)
2021寒假学习 基于张量网络的机器学习(九)一.理论学习1.机器学习2.神经网络2.1 人工神经网络(ANN)2.1.1 构成2.1.2 神经元2.1.3 多层神经元网络2.1.4 学习方法2.1.4.1 反向传播算法2.1.5 种类2.1.6 容量2.2 卷积神经网络(CNN)2.2.1 全连接神经网络2.2.2 构建2.2.2.1 卷积层2.2.2.2 池化层2.2.3 特性2.3 深度神经网络(DNN)3.深度学习二.代码学习三.一些疑问一.理论学习1.机器学习 机器学习是一门人工智能的原创 2021-03-04 01:21:22 · 854 阅读 · 0 评论 -
基于张量网络的机器学习(七)
现在让我们先解决一下上一次博客中提出的问题:斯密特分解时的系数矩阵中的元素是什么?怎么排列的? 在对量子态作斯密特分解时,假如那个量子态的基态为L,每个基态的都为d维态矢,那么就会有dL种可能,即dL个系数,矩阵化的时候是矩阵化为一个d×dL-1的矩阵,至于怎么排列,按顺序丢进去就好了。我们再回顾一下前面的斯密特分解的这个式子,其实很具有迷惑性,这个量子态有D个基态,这里的基态和斯密特分解前的基态是不一样的,这里的α\alphaα可以取D个值,所以应当是指D个纠缠谱的奇异值,并非进行了D-1次原创 2020-08-23 17:20:22 · 540 阅读 · 0 评论 -
基于张量网络的机器学习(六)
在上一次的学习中,我们从TT分解借助新的张量表示方法过渡到了矩阵乘积态,可以说矩阵乘积态(MPS)的另一个别称为TT分解,现在,让我们再一次看看以下两个概念。截断维数χ\chiχ与TT秩:截断维数实际上就是TT分解(或MPS)中辅助指标能取的数的个数,然后借此引入了TT秩,它是一个n维数列(向量),里面每个元素就是每个辅助指标的截断维数,TT秩是在不作任何近似时引入的概念,但如果不作任何近似,随着张量阶数增加,截断维数会指数增加,这样实际上并未解决“指数墙”问题,然后我们又极小化辅助指标,这就是最优原创 2020-08-16 16:53:16 · 729 阅读 · 0 评论 -
基于张量网络的机器学习(五)
在基本了解了张量新的表示方法后,如果我们把向量换成矢量,将实矩阵换为复矩阵,总之将对应的一切实数都换成复数,我们会发现这种方法很多时候依旧适用,甚至在其中会蕴含更多奇妙的东西,能够起到更大的作用。一.TT分解(Tensor-train decomposition)1.TT分解 先上一张张量火车分解的示意图: 这里将一个三阶张量分解成了两个二阶张量和若干个三阶张量的乘积,如果我们用等式来表达这个过程会显得麻烦,此时,新的方法就起到了作用。定义:给定一个N阶张量,如果能将其分解成N个二阶或原创 2020-08-09 17:27:25 · 1405 阅读 · 0 评论 -
基于张量网络的机器学习(四)
在前面的学习中,我们已经比较详细地学习了四种张量分解,接下来,我们就将进入张量网络的学习。一.新的方法 当张量的阶数超过了3阶后,我们要去形象地描绘这个张量就会显得困难,为了方便,现在引入一种新的张量表示方法。使用新的方法描绘各阶张量 对于一个矩阵,可以将行作为起始地点,将列作为目标地点,那么对应的元素值可以代表起始地点到目标地点的距离,类似的,我们把矩阵的行作为输入,列作为输出,行数可以使用指标i代表输入空间的维数,列数可以用指标j代表输出空间的维数,并用类似电路的图形来表示:这表示一原创 2020-08-02 14:34:52 · 760 阅读 · 0 评论 -
基于张量网络的机器学习(三)
本次将继续学习张量分解的有关内容。一.TURCKER分解二.非负矩阵分解三.奇异值分解和高阶张量的奇异值分解(一般)矩阵的奇异值分解(SVD)高阶张量的奇异值分解(HOSVD)四.其他矩阵分解1.LU分解2.正交分解(QR)3.Cholesky分解五.张量分解的特性总结...原创 2020-07-26 17:32:34 · 1159 阅读 · 0 评论 -
基于张量网络的机器学习(二)
在前面的学习中,已经大致了解到了张量怎么来的,也学习到了一些张量的代数运算,本次对张量分解进行学习,本次的主角是CP分解!一.张量分解的知识铺垫 开始学习CP分解知识,我们有必要了解一些基础知识。1.纤维和切片前面的学习已经提到,张量是多维数组:这有利于接下来新知识的学习。纤维(fiber) 纤维是指从张量中抽取向量的操作,只保留一个维度变化,固定其它维度,可以得到向量,这个向量即为张量的纤维。比如对于1个3阶张量,分别只保留i,j,k维度的变化,可以得到:切片(s原创 2020-07-19 13:39:27 · 955 阅读 · 0 评论 -
基于张量网络的机器学习(一)
有关张量的介绍原创 2020-05-30 19:19:59 · 2021 阅读 · 0 评论