
神经网络与深度学习
文章平均质量分 91
介绍深度学习领域相关算法以及前沿成果
Violent-Ayang
人中龙凤尚且举步维艰
展开
-
李沐动手学深度学习 - 线性回归代码最详细讲解
linereg 函数实现了线性回归模型的预测计算。它通过矩阵乘法将特征矩阵 X 与权重矩阵 w 相乘,并加上偏置 b,计算得到每个样本的预测值。原创 2024-08-19 11:13:58 · 1379 阅读 · 0 评论 -
深度学习线性代数基础
一个多维数组,其中的元素可以根据一个或多个索引来访问。一个在向量空间上的多重线性映射,与基的选择无关。对于一个n×n的置换矩阵Pn \times n 的置换矩阵Pn×n的置换矩阵P矩阵 P 的每一行和每一列都恰好有一个1,其余元素都是0。矩阵 P 的对角线上的元素可以是0或1,取决于置换是否包括自身的交换。原创 2024-08-09 14:32:52 · 1003 阅读 · 0 评论 -
MPNN消息传递神经网络
MPNN是一种强大的图神经网络模型,通过消息传递机制捕捉图结构数据的复杂关系。它的灵活性和通用性使其在多个领域有广泛的应用。原创 2024-07-16 20:59:21 · 2731 阅读 · 0 评论 -
RNN文献综述
循环神经网络(Recurrent Neural Network,RNN)是一种专门用于处理序列数据的神经网络模型。它在自然语言处理、语音识别、时间序列预测等领域有着广泛的应用。本文将从RNN的历史发展、基本原理、应用场景以及最新研究进展等方面进行综述。原创 2024-07-05 20:11:57 · 2428 阅读 · 0 评论 -
CNN文献综述
卷积神经网络作为深度学习的重要分支,凭借其强大的特征提取能力和广泛的应用前景,成为了当前人工智能研究的热点。未来,随着计算资源的不断增长和算法的持续优化,CNN将继续在各个领域发挥重要作用,并推动人工智能技术的进一步发展。原创 2024-07-05 20:03:51 · 1989 阅读 · 0 评论 -
ANN文献综述
人工神经网络(Artificial Neural Networks, ANNs)是由多个简单的、相互连接的处理单元组成的自适应系统,通过调整这些单元之间的连接强度,ANNs能够实现对复杂数据的建模和预测。本文综述了ANNs的基本原理、发展历程、主要应用领域以及当前研究热点。原创 2024-07-05 19:58:47 · 1276 阅读 · 0 评论 -
深度学习数学基础 - 概率与信息论
概率论是用于表示不确定性声明的数学框架。它不仅提供了量化不确定性的方法,也提供了用于导出新的不确定性声明statement)的公理。概率论的知识在机器学习和深度学习领域都有广泛应用,是学习这两门学科的基础。条件概率()就是事件 A 在事件 B 发生的条件下发生的概率。条件概率表示为PA∣BP(A|B)PA∣B,读作“A 在 B 发生的条件下发生的概率”。联合概率表示两个事件共同发生的概率。A与B的联合概率表示为PA∩BP(A\cap B)PA∩B或者PAB。原创 2024-07-02 12:50:27 · 1163 阅读 · 0 评论 -
WGAN(Wassertein GAN)
WGAN前作分析了Ian Goodfellow提出的原始GAN两种形式各自的问题,第一种形式等价在最优判别器下等价于最小化生成分布与真实分布之间的JS散度,由于随机生成分布很难与真实分布有不可忽略的重叠以及JS散度的突变特性,使得生成器面临梯度消失的问题;第二种形式在最优判别器下等价于既要最小化生成分布与真实分布直接的KL散度,又要最大化其JS散度,相互矛盾,导致梯度不稳定,而且KL散度的不对称性使得生成器宁可丧失多样性也不愿丧失准确性,导致collapse mode现象。原创 2024-07-02 12:41:30 · 1084 阅读 · 0 评论 -
神经网络与深度学习 - 神经网络基础
- 知道逻辑回归的算法计算输出、损失函数- 知道导数的计算图- 知道逻辑回归的梯度下降算法- 知道多样本的向量计算原创 2024-06-23 15:15:40 · 1458 阅读 · 0 评论 -
神经网络与深度学习 - 深度学习介绍
深度学习通常由多个层组成,它们通常将更简单的模型组合在一起,通过将数据从一层传递到另一层来构建更复杂的模型。深度学习算法试图从数据中学习高级功能,这是深度学习的一个非常独特的部分。过去十多年,得益于数字社会的发展,积累了大量的数据。以前的一些算法到达了瓶颈期,它们无法适用于大量的数据。每层的圆圈代表一个神经元,隐藏层和输出层的神经元有输入的数据计算后输出,输入层的神经元只是输入。那么为什么设计这样的结构呢?神经网络是深度学习的重要算法,用途在图像(如图像的分类、检测)和自然语言处理(如文本分类、聊天等)。原创 2024-06-23 14:58:26 · 448 阅读 · 0 评论 -
REFORMER: 更高效的TRANSFORMER模型
大型Transformer模型通常在许多任务上都能达到最先进的结果,但是训练这些模型的成本可能会非常高昂,特别是在处理长序列时。我们引入了两种技术来提高Transformer的效率。首先,我们用一种使用局部敏感哈希的点积注意力替换了原来的点积注意力,将其复杂度从O(L^2)改变为O(L log L),其中L是序列的长度。此外,我们使用可逆的残差层代替了标准残差,这允许在训练过程中只存储一次激活,而不是N次,N是层的数量。由此产生的模型,即Reformer模型,在性能上与Transformer模型相当原创 2024-05-11 22:43:49 · 787 阅读 · 0 评论