SGD(Stochastic Gradient Descent)随机梯度下降

本文探讨了NCA算法中使用随机梯度下降进行权重更新的方法,详细介绍了如何求解目标函数的偏导数,并利用学习率进行迭代优化。此外,还讨论了一维向量在numpy中的转置问题及向量的欧几里得范数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

为了实现NCA,需要看看随机梯度下降

看完发现其实主要是求个目标函数的偏微分dw,求完后w = w - lr*dw,更新权重

然后发现numpy的转置对一维向量没用。好像矩阵运算的时候会自动转换行列。

最后:||w||_2: ||w||带一个下标2 的意思是这个该向量的范数为欧几里得范数,设w=<x1,x2,x3>, ||w||_2=x1^2+x2^2+x3^2 的开根号。
(||w||_2)^2 的意思是w的欧几里得范数的平方,也就是(||w||_2)^2=x1^2+x2^2+x3^2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值