四个极小值
这里不是对loss进行求偏导数,而是直接用式子对x,y进行求偏导,直接backward就可以,即x’=x-α▽x,y同样,这里[X]=[x,y]
更改初始化,就可以找另外的局部极小值。
深度学习(十七)——2D函数优化实例
最新推荐文章于 2024-03-24 10:50:03 发布
四个极小值
这里不是对loss进行求偏导数,而是直接用式子对x,y进行求偏导,直接backward就可以,即x’=x-α▽x,y同样,这里[X]=[x,y]
更改初始化,就可以找另外的局部极小值。