Hopfield神经网络

本文介绍了Hopfield神经网络,它是一种递归神经网络,可解决模式识别和组合优化问题。文中阐述了其原理、结构,给出“训练”网络权值的直接计算和Hebb规则两种方式,说明了更新网络状态的方法,并通过简单例子展示其记忆和回忆功能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hopfield神经网络

神经网络在1980年代复兴归功于物理学家约翰·霍普菲尔德(Hopfield)。1982年,霍普菲尔德提出了一种新的神经网络,可以解决一大类模式识别问题,还可以给出一类组合优化问题的近似解。这种神经网络模型后被称为Hopfield神经网络。Hopfield神经网络是一种递归神经网络,由约翰.霍普菲德在1982年发明。Hopfield网络是一种结合存储系统和二元系统的神经网络。它保证了向局部极小的收敛,但收敛到错误的局部极小值(local minimum),而非全局极小(global minimum)的情况也可能发生。Hopfield网络也提供了模拟人类记忆的模型。Hopfield网络原理基于Lyapunov稳定性定理和LaSalle不变性定理。对于初次接触Hopfield网络的非控制领域的人来说,Hopfield网络的核心理论晦涩难懂。本文忽略艰深的理论,取而代之的利用应用例子来介绍Hopfield神经网络的工作原理。一旦建立了Hopfield神经网络的总体认识后,再去细究其理论基础(书上及网上博客)就会有高瞻远瞩的感觉,最终完全掌握Hopfield神经网络及其思想。


1. Hopfield网络原理

Hopfield网络最典型的应用是实现一个联想存储器:在网络中存储一个或多个模式,并能够利用不完全(缺失)的输入回忆起完整的模式。

考虑下图字符识别的例子:任务是从输入文本中提取字符,并转成对应的ASCII码形式。现在,假设你不小心弄脏了输入文本(如下右图所示),尽管它与原文本的相似度仍比其它字符对应的文本与该字符原本的相似度要高(至少我们人肉眼还是能从缺失的文本中一眼识别出这是一个“T”),但是毁掉的文本与原文本已经有很大差别了。
在这里插入图片描述

简单说说Hopfield网络的原理:Hopfield网络相当于一个具有多个吸引子的系统。(对于吸引子的大致定义:落入吸引子附近的状态都会被吸引到该吸引子所在的状态。)我们把每个吸引子所在的状态作为一个记忆原型,被毁坏的输入假定在记忆原型的附近,通过Hopfield网络,最终能够通过毁坏的输入回忆起它所对应的完整原型。

在这里插入图片描述

2. Hopfield网络结构

一个具有三个神经元的Hopfield网络结构如下图所示。网络中的每个神经元iii与所有其他神经元j≠ij \neq ij=i之间都存在连接,权值为ωij\omega_{ij}ωij,神经元到它自身的权值为0。一个具有NNN个神经元的Hopfield网络的权值个数为N2N^2N2。因此,Hopfield网络的计算成本相对其他同等大小的人工神经元来说要高很多。
在这里插入图片描述

上图所示的Hopfield网络的权值可规范成矩阵WWW
W=[01−2101−210]W=\left[ \begin{matrix} 0 & 1 & -2 \\ 1 & 0 & 1 \\ -2 &1 & 0 \end{matrix} \right]W=012101210

可知为一个对称矩阵,并且对角元素都等于0。虽是一个例子,Hopfield网络的权值矩阵的确为一个对角元素等于0的对称矩阵。

假定当前网络神经元的状态为[1,1,1][1, 1, 1][1,1,1],我们计算神经元1的输出:
y1=[111][01−2]=−1y_1=\left[\begin{matrix}1 & 1& 1\end{matrix}\right]\left[\begin{matrix}0 \\ 1&\\-2\end{matrix}\right]=-1y1=[111]012=1

第一个神经元的下一时刻的状态由当前的输出确定:
n={0y<01y>=0n = \{\begin{matrix} 0 & y<0 \\ 1 & y >= 0 \end{matrix}n={01y<0y>=0

因此,下一时刻第一个神经元的状态变为000,Hopfield网络的状态变为[0,1,1][0, 1, 1][0,1,1]

注意:对于递归神经网络,一般将外部输入向量作为初始的网络状态。

根据以上对Hopfield网络结构的介绍,我们知道要使其正常工作需要回答以下两个问题:
1)怎样“训练”这个网络?
2)怎样更新网络各神经元的状态?

下面,我们分别回答以上三个问题。

3. 怎样“训练”一个Hopfield网络

《神经网络设计》系统的介绍了Hopfield网络,并明确指出:Hopfield网络没有与之相关的学习规则,它不被训练,也不会自己学习。网络的权值是基于Lyapunov函数的设计过程确定的。本文给出两种得到Hopfield网络权值的方式,它们背后的原理不在本文范围内。

3.1 直接计算

假定我们需要在Hopfield网络中记忆存储一列模式的状态集Vs,s=1,...,nV^s,s=1,...,nVs,s=1,...,n,每个状态的维数相同都为mmm。我们可以按如下公式计算网络的权值:
ωij=∑s=1n(2Vis−1)(2Vjs−1),i≠j\omega_{ij}=\sum_{s=1}^n (2V_i^s-1)(2V_j^s-1), i\neq jωij=s=1n(2Vis1)(2Vjs1),i=j
i=ji=ji=j时,ωij=0\omega_{ij}=0ωij=0.

注意: 分析以上计算公式,知道,我们可以先对每个要记忆的模式单独计算权值矩阵,然后将所有矩阵相加,便得到最终的Hopfield网络权值矩阵。这种计算的好处,使得网络能够增量式记忆增量式到来的模式。

如果我们只有一个模式需要记忆,则计算公式变为:
ωij=(2Vi−1)(2Vj−1),i≠j\omega_{ij}= (2V_i-1)(2V_j-1), i\neq jωij=(2Vi1)(2Vj1),i=j

假定我们对一个具有5个神经元的Hopfield网络计算权值。它所需要记忆的模式为V1=[0,1,1,0,1]V^1=[0, 1, 1, 0, 1]V1=[0,1,1,0,1]。因为具有5个神经元,我们需要一个5×55 \times 55×5的矩阵来存储网络的权值。该权值矩阵应该长成下面这样:
W1=[0ω12ω13ω14ω15ω210ω23ω24ω25ω31ω320ω34ω35ω41ω42ω430ω45ω51ω52ω53ω540]W^1=\left[\begin{matrix} 0 & \omega_{12} & \omega_{13} & \omega_{14} & \omega_{15} \\ \omega_{21} & 0 & \omega_{23} & \omega_{24} & \omega_{25} \\ \omega_{31} & \omega_{32} & 0 & \omega_{34} & \omega_{35} \\ \omega_{41} & \omega_{42} & \omega_{43} & 0 & \omega_{45} \\ \omega_{51} & \omega_{52} & \omega_{53} & \omega_{54} & 0 \end{matrix}\right]W1=0ω21ω31ω41ω51ω120ω32ω42ω52ω13ω230ω43ω53ω14ω24ω340ω54ω15ω25ω35ω450

矩阵为对角元素等于0的对角阵,因此我们只需要计算斜对角一半的权值即可。
ω12=(2V1−1)(2V2−1)=(0−1)(2−1)=(−1)(1)=−1\omega_{12}=\left(2 V_{1}-1\right)\left(2 V_{2}-1\right)=(0-1)(2-1)=(-1)(1)=-1ω12=(2V11)(2V21)=(01)(21)=(1)(1)=1
ω13=(2V1−1)(2V3−1)=(0−1)(2−1)=(−1)(1)=−1\omega_{13}=\left(2 V_{1}-1\right)\left(2 V_{3}-1\right)=(0-1)(2-1)=(-1)(1)=-1ω13=(2V11)(2V31)=(01)(21)=(1)(1)=1
ω14=(2V1−1)(2V4−1)=(0−1)(0−1)=(−1)(−1)=1\omega_{14}=\left(2 V_{1}-1\right)\left(2 V_{4}-1\right)=(0-1)(0-1)=(-1)(-1)=1ω14=(2V11)(2V41)=(01)(01)=(1)(1)=1
ω15=(2V1−1)(2V5−1)=(0−1)(2−1)=(−1)(1)=−1\omega_{15}=\left(2 V_{1}-1\right)\left(2 V_{5}-1\right)=(0-1)(2-1)=(-1)(1)=-1ω15=(2V11)(2V51)=(01)(21)=(1)(1)=1
ω23=(2V2−1)(2V3−1)=(2−1)(2−1)=(1)(1)=1\omega_{23}=\left(2 V_{2}-1\right)\left(2 V_{3}-1\right)=(2-1)(2-1)=(1)(1)=1ω23=(2V21)(2V31)=(21)(21)=(1)(1)=1
ω24=(2V2−1)(2V4−1)=(2−1)(0−1)=(1)(−1)=−1\omega_{24}=\left(2 V_{2}-1\right)\left(2 V_{4}-1\right)=(2-1)(0-1)=(1)(-1)=-1ω24=(2V21)(2V41)=(21)(01)=(1)(1)=1
ω25=(2V2−1)(2V5−1)=(2−1)(2−1)=(1)(1)=1\omega_{25}=\left(2 V_{2}-1\right)\left(2 V_{5}-1\right)=(2-1)(2-1)=(1)(1)=1ω25=(2V21)(2V51)=(21)(21)=(1)(1)=1
ω34=(2V3−1)(2V4−1)=(2−1)(0−1)=(1)(−1)=−1\omega_{34}=\left(2 V_{3}-1\right)\left(2 V_{4}-1\right)=(2-1)(0-1)=(1)(-1)=-1ω34=(2V31)(2V41)=(21)(01)=(1)(1)=1
ω35=(2V3−1)(2V5−1)=(2−1)(2−1)=(1)(1)=1\omega_{35}=\left(2 V_{3}-1\right)\left(2 V_{5}-1\right)=(2-1)(2-1)=(1)(1)=1ω35=(2V31)(2V51)=(21)(21)=(1)(1)=1
ω45=(2V4−1)(2V5−1)=(0−1)(2−1)=(−1)(1)=−1\omega_{45}=\left(2 V_{4}-1\right)\left(2 V_{5}-1\right)=(0-1)(2-1)=(-1)(1)=-1ω45=(2V41)(2V51)=(01)(21)=(1)(1)=1

可得权值矩阵为:
W1=[0−1−11−1−101−11−110−111−1−10−1−111−10]W^1=\left[\begin{matrix} 0 & -1 & -1 &1 & -1 \\ -1 & 0 & 1 & -1 & 1 \\ -1 & 1 & 0 & -1& 1 \\ 1 & -1 & -1 & 0 & -1 \\ -1 & 1 & 1 & -1 & 0 \end{matrix}\right]W1=0111110111110111110111110

此时,如果网络新增一个需要记忆的模式V2=[1,0,1,0,1]V^2=[1, 0, 1, 0, 1]V2=[1,0,1,0,1],按照以上公式与步骤,可得关于该模式的权值:
W2=[0−11−11−10−11−11−10−11−11−10−11−11−10]W^2=\left[\begin{matrix} 0 & -1 & 1 &-1 & 1 \\ -1 & 0 & -1 & 1 & -1 \\ 1 & -1 & 0 & -1& 1 \\ -1 & 1 & -1 & 0 & -1 \\ 1 & -1 & 1 & -1 & 0 \end{matrix}\right]W2=0111110111110111110111110

我们只需要将新计算的权值矩阵与旧权值矩阵按各元素相加,便得到记忆两种模式的Hopfield网络参数。
W=[0−2000−20000000−2200−20−2002−20]W=\left[\begin{matrix} 0 & -2 & 0 &0 & 0 \\ -2 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & -2& 2 \\ 0 & 0 & -2 & 0 & -2 \\ 0 & 0 & 2 & -2 & 0 \end{matrix}\right]W=0200020000000220020200220

3.2 Hebb规则

算法描述如下:
选择一个Hopfield网络要记忆的模式,由该模式可以知道网络各神经元收敛到该模式状态时的期望状态。如果第iii个神经元的状态与第jjj个神经元的状态同号(同为1,或同为0)时,增加这两个神经元的强度ωij+α\omega_{ij} + \alphaωij+α。如果异号(有一个为1,有一个为0)时,则减小这两个神经元的连接强度ωij−α\omega_{ij} - \alphaωijα。权值矩阵WWW初始化为0,且0<α<10< \alpha <10<α<1

以上过程迭代数次,每次选择不同的记忆模式。也可以对每个记忆模式单独学习,学习完成后将权值相加即可。

个人认为,Hebb规则应用在Hopfield网络的学习中非常勉强。没有直接计算法来得直接。并且,Hebb规则法并没有在理论上去推导Hopfield网络的学习算法,只是一种对直接计算法的近似。个人见解,欢迎拍砖。

4. 如何更新Hopfield网络的状态

到此,我们能够根据要记忆的模式设计网络的结构与参数。接下来,我们需要知道怎么更新网络的状态,使网络的状态最终收敛到记忆的模式,实现回忆功能。

仍以以上例子,假定5个神经元的Hopfield网络需要存储两个模式V1=[0,1,1,0,1]V^1=[0, 1, 1, 0, 1]V1=[0,1,1,0,1]V2=[1,0,1,0,1]V^2=[1, 0, 1, 0 ,1]V2=[1,0,1,0,1]

网络的权值矩阵由上节可知为:
W=[0−2000−20000000−2200−20−2002−20]W=\left[\begin{matrix} 0 & -2 & 0 &0 & 0 \\ -2 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & -2& 2 \\ 0 & 0 & -2 & 0 & -2 \\ 0 & 0 & 2 & -2 & 0 \end{matrix}\right]W=0200020000000220020200220

现在假定有一个被污染的输入x=[1,1,1,1,1]x = [1, 1, 1, 1, 1]x=[1,1,1,1,1],我们将它输入到上面设计的Hopfield网络。我们利用这个例子来说明网络的更新过程。

首先,我们需要一个更新顺序。每次只更新一个神经元的状态,对哪一个进行更新?一般有两种方式:1)按顺序;2)随机选择。

更新顺序:我们采用固定顺序,例如按照3,1, 5,2, 4, 3, 1, 5,2,4,…的顺序不断迭代更新网络各神经元的状态。

我们会把外部输入作为网络的初始状态,此例中网络的初始状态为n=[1,1,1,1,1]\mathbf{n} = [1, 1, 1, 1, 1]n=[1,1,1,1,1]
我们计算第一个要更新的神经元输出
y3=∑j≠3ωj3nj=0y_3=\sum_{j\neq 3} \omega_{j3} n_j=0y3=j=3ωj3nj=0
根据以下公式更新神经元的状态:
n={0y<01y>=0n = \{\begin{matrix} 0 & y<0 \\ 1 & y >= 0 \end{matrix}n={01y<0y>=0
因此,n3=1n_3=1n3=1,网络的状态变为n=[1,1,1,1,1]\mathbf{n}=[1, 1, 1, 1, 1]n=[1,1,1,1,1]

每二个要更新的神经元为第1个神经元:
y1=∑j≠1ωj1nj=−2y_1=\sum_{j \neq 1} \omega_{j1} n_j=-2y=j=ωjnj=2
因此,n2=0n_2=0n2=0,网络的状态变为n=[0,1,1,1,1]\mathbf{n}=[0, 1, 1, 1, 1]n=[0,1,1,1,1]

按以上顺序,不断更新网络的状态。
最终收敛到状态[0,1,1,0,1][0, 1, 1, 0, 1][0,1,1,0,1],也即回忆起第1个模式。
终止准则:如果网络神经元的状态不再变化,则说明网络已经收敛,此刻网络的状态就是该输入唤起的记忆。

如果将神经元的更新顺序改为:2,4,3,5,1,2,4,3,5,…,最终收敛的到第二个模式[1,0,1,0,1][1, 0, 1, 0, 1][1,0,1,0,1]。这个过程,大家感兴趣可以动手算以下,或者编程序实现,对比结果。说明,对神经元更新的顺序是影响最终的收敛结果的

5. 一个简单的例子

假定我们需要利用Hopfield网络记忆存储以下两种模式,简称“+++”与“×\times×”。

在这里插入图片描述在这里插入图片描述

5.1 数据准备

以上两种模式的数据表示为5×55\times 55×5的矩阵,分别为:
+=[0010000100111110010000100]+=\left[\begin{matrix} 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0 & 0\\ 1 & 1 & 1 & 1 & 1\\ 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0 & 0 \end{matrix}\right]+=0010000100111110010000100

×=[1000101010001000101010001]\times=\left[\begin{matrix} 1 & 0 & 0 & 0 & 1\\ 0 & 1 & 0 & 1 & 0\\ 0 & 0 & 1 & 0 & 0\\ 0 & 1 & 0 & 1 & 0\\ 1 & 0 & 0 & 0 & 1 \end{matrix}\right]×=1000101010001000101010001

为了能够作为网络输入,进一步将以上矩阵形式向量化为:
+=[0010000100111110010000100]+=\left[\begin{matrix} 0 & 0 & 1 & 0 & 0& 0 & 0 & 1 & 0 & 0& 1 & 1 & 1 & 1 & 1& 0 & 0 & 1 & 0 & 0& 0 & 0 & 1 & 0 & 0 \end{matrix}\right]+=[0010000100111110010000100]

×=[1000101010001000101010001]\times=\left[\begin{matrix} 1 & 0 & 0 & 0 & 1& 0 & 1 & 0 & 1 & 0& 0 & 0 & 1 & 0 & 0& 0 & 1 & 0 & 1 & 0& 1 & 0 & 0 & 0 & 1 \end{matrix}\right]×=[1000101010001000101010001]

5.2 网络结构与参数

可知该Hopfield网络具有25个神经元,参数的个数为25×2525\times 2525×25个。可以由25×2525\times 2525×25的权值矩阵表示。经计算,权值矩阵如下图所示,其中,黄色为+2, 深蓝色为-2,其他值为0。
在这里插入图片描述

5.3 回忆

我们拿以下两个输入,分别来测试Hopfield网络的回忆效果。最终左图的输入回忆起了+++,右图的输入回忆起了×\times×
在这里插入图片描述在这里插入图片描述

5.4 程序

程序实现了Hopfield网络。并利用本节的例子作为测试。其中,程序包括两种参数获取的方式:1)直接计算;2)Hebb规则。在本例中,最终的效果是一样的。大家可以用该程序测试更复杂的模式。

import numpy as np
import copy

class HopfieldNet:
    def __init__(self, node_nums, Vs):
        self.node_nums = node_nums
        self.W = np.zeros((node_nums, node_nums))
#         self.learnW(Vs) # method 2: learn weights by Hebb rule
        # method 1: calculate the weights directly
        for i in range(node_nums):
            for j in range(node_nums):
                if i == j:
                    self.W[i,j] = 0
                else:
                    self.W[i,j] = sum([(2*Vs[a][i]-1)*(2*Vs[a][j]-1) for a in range(len(Vs))])
        print(self.W)
                    
    def learnW(self, Vs):
        for i in range(100):
            for j in range(len(Vs)):
                for c in range(len(Vs[j])):
                    for r in range(len(Vs[j])):
                        if c != r: 
                            if Vs[j][c] == Vs[j][r]:
                                self.W[c, r] += 0.1
                            else:
                                self.W[c, r] -= 0.1
        print(self.W)
        
        
        
        
    def fit(self, v):
        new_v = np.zeros(len(v))     
#         indexs = [2, 1, 0, 4, 3]
        indexs = range(len(v))
        while np.sum(np.abs(new_v-v)) != 0:
            new_v = copy.deepcopy(v)
            for i in indexs:
                temp = np.dot(v, self.W[:,i])
                if temp >= 0:
                    v[i] = 1
                else: v[i] = 0
        return v
        

        
Vmat1 = np.zeros((5,5))
Vmat1[2,:] = 1
Vmat1[:,2] = 1

Vmat2 = np.zeros((5,5))
for i in range(5):
    Vmat2[i,i] = 1
    Vmat2[i, 4-i] = 1

import matplotlib.pyplot as plt
%matplotlib inline

plt.imshow(Vmat1)
plt.show()
plt.imshow(Vmat2)
plt.show()
node_nums = 25
Vs = [Vmat1.reshape(-1), Vmat2.reshape(-1)]
# Vs = [np.array([0, 1, 1, 0, 1]), np.array([1, 0, 1, 0, 1])]
hopnet = HopfieldNet(node_nums, Vs)

testmat = np.zeros((5,5))
testmat[2,:] = 0
testmat[:,2] = 0
testmat[2,2] = 1
testmat[0,0] = 1
plt.imshow(testmat)
plt.show()
v = testmat.reshape(-1)

# v = np.array([1, 1, 1, 1, 1])
newv = hopnet.fit(v)
print(newv)
plt.imshow(newv.reshape(5,5))
plt.show()

6. 结语

本文通过对Hopfield网络的工作原理进行解绍,规避了艰深理论的推导,让大家比较轻松的熟悉网络的结构、参数以及工作原理。为之后进一步的深度制造一种良好的信心。

  1. Hopfield网络类似一个具有多个吸引子的系统,能将在吸引子附近的状态吸引到吸引子所在的状态。因此,Hopfield网络能够用来存储模式,并利用具有噪声的外部输入回忆起它原本的模式。
  2. Hopfield网络的参数采用直接计算法,直接计算的公式应该是由Lyapunov稳定性定理推导出来的,具体我也不是很清楚,反正好使。
  3. 此处,Hebb规则的应用是一种趋近直接计算法的学习方法(在Hopfield网络中),不如直接计算来的直接。

[1] MartinT.Hagan. 神经网络设计[M]. 2002.
[2] http://web.cs.ucla.edu/~rosen/161/notes/hopfield.html

### Hopfield神经网络概述 Hopfield神经网络是一种典型的反馈型神经网络,最初由John Hopfield于1982年提出。该模型的核心特点是其具备联想记忆能力,能够在接收到不完全或者带噪声的输入信号时,恢复出完整的原始模式[^1]。 #### 网络结构与工作原理 Hopfield神经网络的基本单元是由全连接的二态神经元组成,这些神经元的状态可以表示为+1或-1。每个神经元接收其他所有神经元的加权输出作为自己的输入,并根据激活函数更新自身的状态。这种动态过程最终会收敛到某个稳定的能量极小值点,即所谓的吸引子状态。这一特性使得Hopfield神经网络非常适合用于解决优化问题以及模式匹配任务,比如字符识别和图像去噪等应用场合[^2]。 #### 学习规则 为了使Hopfield神经网络能够记住特定的模式集,在训练阶段采用Hebbian学习法则来调整权重矩阵Wij之间的关系。对于给定的一组样本向量ξμ(其中μ=1,...,p),可以通过下面公式计算得到对应的权值: \[ W_{ij}=\frac{1}{N}\sum _{\mu =1}^{P}\xi _{i}^{\mu }\cdot \xi _{j}^{\mu }-\delta _{{ij}}\] 这里N代表单个模式的数据长度;δ_ij 是克罗内克符号当 i=j 时候等于1否则为0 。这样构建出来的权重保证了如果初始状态接近任何一个存储过的模式,则经过若干次迭代之后整个系统将会稳定在这个目标模式附近。 ### MATLAB代码实现示例 以下是利用MATLAB编写的一个简单版本的Hopfield神经网络程序用来演示如何完成数字'3'的手写体图案重建功能: ```matlab clc; clear all; % 定义三个样例模式 (简化版手写字母 'E', 'O', 和 'Q') patterns = [ -1 -1 1 -1 -1 ... 1 -1 1 -1 1 ... % E 1 1 1 1 1 ; 1 1 1 1 1 ... 1 -1 -1 -1 1 ... % O 1 1 1 1 1 ; 1 1 1 1 1 ... 1 -1 -1 -1 1 ... % Q 1 1 1 -1 1 ]; numPatterns = size(patterns, 1); patternSize = sqrt(size(patterns, 2)); weights = zeros(patternSize*patternSize); for k = 1:numPatterns patVec = reshape(patterns(k,:), patternSize * patternSize, 1); weights = weights + patVec * patVec'; end weights = weights / numPatterns; diag(weights) = 0; testPattern = [-1 -1 1 -1 -1... 1 -1 1 -1 -1... 1 1 1 1 1]; currentState = testPattern(:)'; newState = currentState; steps = 0; while steps < 50 for unitIndex = 1:length(newState) netInput = sum((currentState .* weights(:,unitIndex))); newState(unitIndex) = sign(netInput); end if isequal(newState, currentState) break; else currentState = newState; end steps = steps + 1; end disp('Reconstructed Pattern:'); reshape(newState,patternSize,patternSize) ``` 此脚本首先定义了一些基础模板图形,接着按照前述提到的方法创建关联权重表,并尝试从部分损坏测试图样中重现最相近的标准形式之一[^2]。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

windSeS

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值