- 博客(4)
- 收藏
- 关注
原创 Adam优化算法简单实战代码实现
Adam(Adaptive Moment Estimation)是一种常用的优化算法,它结合了Adagrad和RMSProp的优点,在不同的学习率情况下计算每个参数的自适应学习率,更加高效地更新参数。Adam算法使用了指数移动平均估计的梯度的一阶矩(即均值)和二阶矩(即方差),并且可以根据需要对偏差进行修正,有效地解决了Adagrad算法中学习率下降过快的问题。Adam算法通过计算梯度的一阶矩估计(即梯度的平均值)和二阶矩估计(即梯度的平方的平均值),来对不同参数的学习率进行自适应调整。
2023-05-14 16:06:43
2688
1
原创 Pytorch中rand(),randn(),randint(),normal(),full()随机生成数据方法对比及运用
这些方法的共同点是都可以用来创建一个张量,并且都可以指定输出张量的数据类型、形状、设备类型等参数。rand()01randn()randint()normal()meanstdfull()因此,在实际应用中需要根据具体情况选择不同的方法,以满足数据的需要。以下为几个方法的介绍及运用。
2023-05-12 09:57:05
3045
1
原创 PyTorch中torch.tensor与torch.Tensor参数详解及异同对比
这是python类,是默认张量类型torch.FloatTensor()的别名,我们每次调用torch.Tensor([1,2, 3, 4, 5])来构造一个tensor的时候,会调用Tensor类的构造函数,生成一个单精度浮点类型的张量。也就是说,torch.Tensor() 的作用实际上跟 torch.FloatTensor() 一样,都是生成一个数据类型为 32 位浮点数的张量,如果没传入数据就返回空张量,如果有列表或者 narray 的返回其对应张量。都会返回一个Tensor类型的数据。
2023-05-11 09:28:28
1345
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人