- 博客(7)
- 收藏
- 关注
原创 pytorch实现RNN循环神经网络
一、概述循环神经网络(Recurrent Neural Network, RNN)是一类以(sequence)数据为输入,在序列的演进方向进行(recursion)且所有节点(循环单元)按链式连接的(recursive neural network),通过网络的内部结构捕捉序列之间的模式特征,一般也是以序列形式输出。RNN(Recurrent Neural Network) 是带有循环的神经网络。假设我们有一组向量,通过假设函数$H$解释代表时间量,是非线性函数,相对应的是每次循环的输出。
2022-10-25 17:23:05
4008
原创 CNN-卷积操作pytorch实现
二、选择MNIST数据集,图像大小为28X28,通过卷积操作转换向量。三、创建两套卷积核以及定义池化层,dropout层。三、定义激活函数非线性转换、四、通过池化操作以及激活函数转换。
2022-09-28 16:00:28
710
原创 CNN-卷积神经网络
我们使用卷积处理图像,如果采用经典的神经网络模型,则需要读取整幅图像作为神经网络模型的输入(即全连接的方式),当图像的尺寸越大时,其连接的参数将变得很多,从而导致计算量非常大。图像中,红色的输入层代表输入图像,所以它的宽度和高度就是图像的宽度和高度,它的深度是3(代表了RGB3种颜色通道)、接着是经过卷积运算(convolution)和池化运算(Pooling)之后的激活值(也可以看做一层神经元),再接着的下一部分的卷积池化层,最后的部分是一个深度为分类个数的输出向量。
2022-09-28 15:22:58
10027
原创 动态规划 - 整数拆分
所以在拆分 n == 0 or n == 1, 是没有意义的,很显然,我们拆分n == 2时,可以得出2 = 1 + 1,所以最大乘积为1, 即dp[2] = 1,后续的计算乘积结果也是基于dp[2]的结果。dp[i] 是依靠 dp[i - j]的状态,所以遍历i一定是从前向后遍历,i是从3开始,枚举j的时候,是从1开始的。2) 将 i 拆分成 j 和 i−j 的和,且 i−j 继续拆分成多个正整数,此时的乘积是 j * dp[i-j],此时,我们就需要dp数组中之前的值进行调用。第四步、确定遍历顺序。
2022-09-20 18:18:00
2301
原创 余弦相似度
余弦相似度算法:一个向量空间中两个向量夹角间的余弦值作为衡量两个个体之间差异的大小,余弦值接近1,夹角趋于0,表明两个向量越相似,余弦值接近于0,夹角趋于90度,表明两个向量越不相似。
2022-09-17 21:22:19
14893
2
原创 词向量的训练
词向量是概率语言模型的重要组成部分,通过用一个定长向量来表示语言中的一个词,文章中通过gensim训练词向量word2vec。gensim的工作包括:训练大规模语义模型;将文本表示为语义向量;查找语义相关文档。首先,训练前,通过jieba分词,创建成词汇词典,通过word2vec的方法CBOW或Skip-gram两种训练方法,通过深度神经网络的反向传播算法,可以训练出模型的参数,同时得到了所有的词对应的词向量。
2022-09-17 20:43:08
1356
原创 数据结构-动态规划算法
动态规划就是把复杂的问题分解为简单的子问题的求解方式。动态规划的基本思路:通常用于求解具有某种最优性质的问题,试图只解决每个问题一次一旦某个给定子问题的解已经算出,则将其记忆化存储,以便下次需要同一个子问题解之时直接查表。动态规划自底向上(迭代而非递归)求解问题,避免重复计算。而对于递归,求解这些子问题,然后合并子问题的解得到原问题的解。区别在于这些子问题会有重叠,一个子问题在求解后,可能会再次求解。
2022-09-13 23:25:00
1292
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅