
深度学习
算法黑哥
喜欢算法,善于思考
展开
-
timm使用swin-transformer
swin-transformer原创 2023-02-22 22:58:23 · 7456 阅读 · 2 评论 -
计算机视觉之图像检索
图像检索原创 2023-01-09 00:20:17 · 149 阅读 · 0 评论 -
pytorch显示一批图像数据的2种方法
pytorch 库 torchvision 带的make_grid()原创 2022-12-31 11:15:44 · 266 阅读 · 0 评论 -
训练CNN之过拟合与欠拟合
过拟合欠拟合来自PDF截图。原创 2022-12-14 15:16:45 · 219 阅读 · 0 评论 -
深度学习中的epochs,batch,iterations,Mini-batch
1个epoch等于使用全部训练数据训练一次,也可以说1个epoch是整个输入数据的单次向前和向后传递。epoch的值就是同样的一个全部训练数据集被重复用几次来训练,亦即应当完整遍历训练数据集多少次。把全部训练数据分为若干个批(batch),按批来更新参数(拿到一批样本点的error之后才去update参数)。既不是像Batch gradient descent(批梯度下降)那样,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。也不是像stochastic gradient descent原创 2022-07-07 10:08:33 · 2349 阅读 · 0 评论 -
对卷积的深入理解
参考此网站转载 2022-04-20 23:00:21 · 121 阅读 · 0 评论 -
LSTM、GRU
原创 2020-03-18 19:22:45 · 487 阅读 · 0 评论 -
循环神经网络RNN
文章目录1.为什么在序列模型使用CNN等神经网络效果不好2.介绍一下RNN:3 RNN的图4 RNN的前向传播:4 交叉熵损失5 时序反向传播算法(BPTT)(重要)梯度爆炸 消失1.为什么在序列模型使用CNN等神经网络效果不好序列数据前后之间是有很强的关联性 如:曾经有一份真挚的感情,摆在我面前,我没有去?_序列数据的输入输出长度不固定2.介绍一下RNN:(1)循环(...原创 2020-03-17 01:27:08 · 648 阅读 · 0 评论 -
LSTM、GRU详细介绍
参考博文:[1] https://blog.youkuaiyun.com/dQCFKyQDXYm3F8rB0/article/details/82922386原创 2020-01-07 14:15:13 · 1105 阅读 · 0 评论 -
吴恩达深度学习之tensorflow2.0 课程
课链接 吴恩达深度学习之tensorflow2.0入门到实战 2019年最新课程 最佳配合吴恩达实战的教程 代码资料 自己取链接:https://pan.baidu.com/s/1QrTV3KvKv0KUhIRrGBgJOA提取码:v26e后续资料链接 还会...原创 2019-12-03 12:48:09 · 2717 阅读 · 7 评论