- 博客(14)
- 收藏
- 关注
原创 刘二大人PyTorch深度学习实践第12讲循环神经网络
参考:pytorch深度学习实践(刘二大人)课堂代码&作业——循环神经网络基础篇_pytorch深度学习实践 作业-优快云博客
2024-10-18 15:07:31
321
原创 刘二大人PyTorch深度学习实践第11讲卷积神经网络高级篇
1.Inception在同一层中并行使用多个不同尺寸的卷积核(如1×1、3×3、5×5等),以及可能的池化层,通过反向传播算法学习如何最优地组合这些不同尺寸的特征,达到自动“选择”的效果。核心思想是将不同的卷积层通过并联的方式结合在一起,经过不同卷积层处理的结果矩阵在深度这个维度拼接起来,形成一个更深的矩阵。2.使用1×1的卷积层,用于减少或增加通道数,从而在不显著降低性能的情况下减少计算量。设输入为 x ,卷积层的输出为 F(x) ,则残差模块的输出为H(x)=F(x)+x。
2024-10-16 17:30:08
620
原创 刘二大人PyTorch深度学习实践第4讲反向传播作业
backward函数用于自动计算梯度,当调用该函数时系统会执行反向传播算法,从当前张量开始沿着着计算图回溯,根据链式法则计算每个叶子节点对当前张量的梯度。torch.Tensor是torch.FloatTensor的一种简写,torch.Tensor会生成单精度浮点类型(32位)的张量。学习率取0.02,训练1000次的结果,输入x=4,输出预测值25.0079,真实值25。torch.tensor根据传入的数据类型自动决定生成的张量类型。假设函数是y=x^2+2x+1。
2024-10-05 15:03:04
196
原创 刘二大人PyTorch深度学习实践第2讲线性模型作业
Python三维绘图--Matplotlib。python中zip()函数的用法。Numpy Meshgrid函数。np.meshgrid函数。
2024-10-02 23:11:02
670
原创 神经网络学习笔记1
【5分钟-通俗易懂 - 神经网络 反向传播算法(手算)】 https://www.bilibili.com/video/BV1QV4y1E7eA/?【[5分钟深度学习] #01 梯度下降算法】 https://www.bilibili.com/video/BV1oY411N7Xz/?均方误差(MSE):用于回归问题,计算预测值与真实值之间的平均平方差。沿梯度方向函数增加最快,沿梯度反方向函数减小最快。计算预测值和真实值的差距的一类函数。求解损失函数最小值的优化算法。
2024-10-01 15:41:37
640
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅