- 博客(5)
- 收藏
- 关注
原创 leetcode刷题-1.数组-1.2哈希表
首先来讲下哈希表的定义。散列表(Hash table,也叫哈希表),是根据关键码值(Key value)而直接进行访问的数据结构。也就是说,它通过把关键码值映射到表中一个位置来访问记录,以加快查找的速度。这个映射函数叫做散列函数,存放记录的数组叫做散列表。(转自百度百科)下面进行示例分析本题不考虑其他解法,只考虑哈希表的解法class Solution: def singleNumber(self, nums: List[int]) -> int: fre
2021-10-26 23:36:29
345
原创 leetcode个人刷题记录——初级算法-1.数组-1.1双指针
本个系列本人开始对leetcode的刷题进行总结。刷题需要量大也需要对刷过的题进行系统的总结。文章全为自己浅显的看法,为日后回顾,如有不对的地方,或者不够好的地方欢迎大家批评指正!本blog主要总结数组中常碰见的题型。本人因为理解方式是知其然然后知其所以然;所以讲解的内容会从最基本的概念讲到最后的解题技巧。1.双指针的使用双指针的定义:指的是在遍历对象的过程中,不是普通的使用单个指针进行访问,而是使用两个相同方向(快慢指针)或者相反方向(对撞指针或左右指针)的指针进行扫描,从而达到相应的目的。.
2021-10-25 23:50:15
298
原创 LSTM中神经元的个数
在初学RNN\LSTM时,经常将其与CNN进行类比,从而会思考LSTM中的神经元的个数。然而循环神经网络与卷积神经网络差异很大,个人建议不进行类比,概念容易混淆。其次来解释RNN\LSTM中神经元的个数。这张在RNN中广为流传的神图,很容易给人们带来误解。这是通过时间步展开的RNN,通过时间步展开就意味着用了一个相同的rnn神经元,使用相同的参数。所以可以说只有一个神经元。上图是LSTM按照时间步展开,基于对神经元的不同理解,LSTM中神经元的个数也可以进行不同理解,一般大家把LS.
2021-09-21 02:12:00
5042
1
原创 关于PyTorch教程中神经网络一节中的 self.fc1 = nn.Linear(16 * 5 * 5, 120)
在PyTorch中神经网络一节中有:import torchimport torch.nn as nnimport torch.nn.functional as Fclass Net(nn.Module): def __init__(self): super(Net, self).__init__() # 1 input image channel, 6 output channels, 5x5 square convolution #
2021-09-18 13:26:15
11881
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人