- 博客(49)
- 资源 (2)
- 收藏
- 关注
原创 残差网络(Residual Network,ResNet)原理与结构概述
残差网络(Residual Network)简介、概述与基本结构。
2022-10-26 21:08:23
53172
9
原创 自注意力(Self-Attention)与Multi-Head Attention机制详解
self-attention,multi-head attention原理详解
2022-10-21 18:44:06
21721
8
原创 长短时记忆网络(Long Short Term Memory,LSTM)详解
长短时记忆网络(LSTM)基本原理与基于Pytorch的实现方法。
2022-10-01 16:04:46
14910
3
原创 决策树(Decision tree)基本原理与基于scikit-learn的实现
决策树(Decision Tree)基本原理与基于scikit-learn的实现。
2022-08-13 17:23:41
1744
原创 AlphaFold 解析(1):源码解析——residue_constants
AlphaFold解析:residue constants.py解析
2022-07-28 12:44:49
1681
1
原创 多层感知机(MLP)、全连接神经网络(FCNN)、前馈神经网络(FNN)、深度神经网络(DNN)与BP算法详解
多层感知机(MLP)、全连接神经网络(FCNN)、前馈神经网络(FNN)、深度神经网络(DNN)与BP算法详解。
2022-06-27 17:20:06
33927
6
原创 欧拉法(Euler‘s method)求常微分方程(ODE)近似解
求微分方程的近似解在实际问题的解决中具有极其重要的作用,因为在大多情况下我们很难求出微分方程的函数表达式,或是表达式过于复杂,此时便可以用数值计算的方法求该微分方程的近似解。欧拉法便是其中一种最为简单的求常微分方程近似解的方法,该方法较为简单,同时也有比较明显的缺陷,但也是其它的求解微分方程近似解方法的基础。算法原理欧拉法求解过程是一个递归的过程,这个思想和牛顿法、梯度下降法是相似的。并且它将函数离散化,分割成一个个小段来求解。欧拉法求解的常微分方程的形式通常为:右边是关于x,y的任意函数,
2022-05-28 08:34:16
14490
1
原创 Hopfield神经网络(HNN)详解
Hopfield神经网络是一种比较特殊的网络,它不像一般的神经网络那样有输入层和输出层,并且通过训练来改变神经网络中的参数,最终实现预测、识别等功能。Hopfield网络只有一群神经元节点,所有节点之间相互连接,形式如下:虽然有些文章会画出像深度神经网络那样有输入输出的图,并且输出后又返回输入,但本质上就是多个节点之间的全连接,也就是上面的图形。Hopfield神经网络主要有两个应用:一是起到类似储存器的作用,也就是我们把多个序列或图片输入这个网络,最终这个网络会以神经元之间连接权重的形式储存这
2022-05-12 15:21:43
38982
2
原创 激活函数(activation function)的种类与应用
激活函数在逻辑回归、感知机、神经网络系列模型中有着重要的作用,是神经网络最重要的组成成分之一。如果把神经网络模型比作一台机器,那么激活函数就起着类似信号处理器的作用,把输入的数据进行处理然后准备输出。在一般的神经网络中,激活函数负责把上一层输出的数据(一般是向量或矩阵)计算后的结果进行处理,得到新的一组数(即新的输出),对应就是下面蓝色与红色之间的直箭头部分。例如,对与上面的三层神经元(一般会把蓝色和红色合并成一个节点,这里兔兔为了展示方便,画成两个圆)。我们以中间层为例。中间的左半部分..
2022-05-11 09:40:02
3950
原创 多元函数牛顿法求函数极小值
多元函数牛顿法求极小值是对一元函数牛顿法的延申,关于一元函数牛顿法,可以看兔兔的《牛顿法(Newton's method)求函数极小值》一文。(一)算法原理与一元函数形式相似,但是又有很大的区别。首先,兔兔先介绍两个需要用到的基本概念:Hession矩阵和梯度。对于一个多元函数,有n个自变量,为n元函数,其Hession矩阵形式如下:并且自变量(向量x)为:函数的梯度定义为:例如对于二元函数,它的梯度就是。其Hession矩阵为:从本质上来说,多元函数梯度对应就是
2022-05-10 12:44:02
4475
原创 牛顿法(Newton‘s method)求函数极小值
牛顿法一般指牛顿迭代法,也叫做牛顿-拉夫逊(拉弗森)方法(Newton-Raphson method),其最初的作用是用来求解函数的零点,但是也可以像梯度下降方法一样,以迭代的形式来求函数的极值。而事实上,牛顿法求零点和极值的思想是一样的,因为函数的极值点对应就是函数的导数的零点(但导数零点有时可能是函数的极大、极小或驻点)。所以牛顿法求函数极小值还是有许多的问题的。(一)牛顿法求零点。(1)基本原理牛顿法的思想就是在函数曲线上初始一个点,做该点的切线与x轴交于x0,然后再过(x0,f(x0))
2022-05-10 10:50:52
12601
2
原创 判别分析(1)——距离判别法
判别分析是多元统计分析的内容,其作用在分类确定的条件下,根据某一研究对象的各种特征的值来判断其归属于哪一类(即总体)。实际上,这一类问题就是根据已有的样本数据与对应的类别,判断未知类别的数据属于哪一类。像逻辑回归、支持向量机等从某种意义上来说也属于是判别分析的一种,只不过这些算法需要根据样本对模型进行训练,从而能够利用未知数据的各个指标判断其属于哪一类;而统计学中的判别分析,并没有利用数据进行训练,而是按照一定的判别准则、建立判别函数来判断新的数据属于哪一类。判别分析有许多的方法。本文讲述的是判别分析比
2022-04-23 20:55:15
11863
1
原创 相似性度量(距离度量)方法(二):字符串(文本)相似性度量
在本篇文章中,兔兔讲述字符串的相似性(距离)度量方法与算法实现。(1)海明距离。根据(一)篇当中的内容,我们已经知道了海明距离的度量方法。即判断字符串对应位置是否相等。def Hamming_distance(list1,list2): n=len(list1) #n为列表长度,且list1与list2长度相等 s=0 for i in range(n): if list1[i]==list2[i]: s+=1 e
2022-04-21 20:57:19
2353
原创 相似性度量(距离度量)方法(一):基本种类与公式
相似性度量(或距离度量)方法在多元统计中的聚类分析、判别分析中的距离判别法、泛函分析、机器学习等方面都有应用。所以对于数据分析、机器学习等方面,掌握相似性的不同度量方法是十分重要且必要的。相似性度量与距离度量本质上是同一件事情。如果两组数据之间的距离越大,那么相似性越小;反正,如果相似性越大,那么距离越小,这是可以直观理解的。但是距离度量与相似度量还是有一点点区别的。距离度量,一般情况下距离是大于0的数;而相似性或相异性通常数值介于[0,1]之间。相似性与相异性统称为邻近度。对于相似性的度量,首
2022-04-20 16:22:45
30528
4
原创 k-均值(k-means)聚类
k-均值聚类实际上是多元统计分析中的聚类分析部分的内容,但是也是机器学习的基础算法。它的目的就是把数据(无标签)进行分类,但是具体分多少个类却不知道,只能我们先认为的假设分为多少个类进行计算。聚类与分类是有着本质区别的。对于分类问题及其算法算法(如逻辑回归、支持向量机等分类算法),它们属于监督学习——根据原有的数据(有标签类别)和对应的类别进行训练,训练后可以把新的未知类别的数据进行预测判别其属于哪一类;而聚类则是只有一堆数据,我们不知道类别(即无标签),而是人为地进行分类。简单来说,分类问题,就好比人
2022-04-17 20:06:07
10145
2
原创 免疫算法(Immune Algorithm)详解
关于免疫算法(IA),其功能与遗传算法、模拟退火等算法实现的功能是相同的,都是用来求最优解。例如求函数最值、旅行商问题等。从本质上说,免疫算法更像是遗传算法的一种延申。IA虽然其中借鉴了生物学(免疫学)的概念,但学习时需要注意,IA毕竟是一种算法,把算法中所有概念都与免疫学概念联系起来是容易难以理解算法的,甚至容易混淆。所以IA只是借鉴免疫学概念并受免疫过程的启发,最终其实还是需要回归到算法当中。即便如此,兔兔在后面还是需要将算法与一些生物学概念联系,但是会辨别其中本质区别。而且学习时需要与遗传算法相结
2022-04-17 13:29:19
14638
12
原创 逻辑回归(Logistic Regression)详解
逻辑回归也称作logistic回归分析,是一种广义的线性回归分析模型,属于机器学习中的监督学习。其推导过程与计算方式类似于回归的过程,但实际上主要是用来解决二分类问题(也可以解决多分类问题)。通过给定的n组数据(训练集)来训练模型,并在训练结束后对给定的一组或多组数据(测试集)进行分类。其中每一组数据都是由p 个指标构成。(1)逻辑回归所处理的数据逻辑回归是用来进行分类的。例如,我们给出一个人的 [身高,体重] 这两个指标,然后判断这个人是属于”胖“还是”瘦“这一类。对于这个问题,我们可以先测量n个
2022-04-14 22:20:10
263476
30
原创 蒙特卡罗(Monte Carlo) 模拟
蒙特卡罗模拟(方法),也称为计算机随机模拟方法、统计模拟法、统计试验法,是基于”随机数“的计算方法,或者是说把概率现象作为研究对象的数值模拟方法。其数学基础是大数定律与中心极限定理。其基本思想是:为了求解问题,先建立一个概率模型或随机过程,再通过对过程的观察或抽样试验来计算参数或数字特征。最后求出解的近似值。蒙特卡罗模拟求解实际问题的基本步骤:(1)根据问题特点,构造概率统计模型,使所求的解是所求问题的概率分布或数学期望。(2)给出模型中各种不同分布的随机变量的抽样方法。(3)统计处理模拟结
2022-04-13 09:31:21
54191
4
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人