optimizer=SGD(0.88)

optimizer=AdaGrad(0.88)

可以看出,用AdaGrad方法,使得学习路径比较平缓,更快速地到达梯度最小点
# -*- coding: utf-8 -*-
"""
Created on Tue Jun 25 09:04:14 2019
@author: Administrator
"""
import sys, os
sys.path.append(os.pardir)
import numpy as np
from common.gradient import numerical_gradient
import matplotlib.pylab as plt
class simple:
def __init__(self,x,y):
self.x=x
self.y=y
def f(self):
z=np.sum((s

这篇博客通过代码演示了使用AdaGrad优化算法与SGD优化算法在训练过程中的区别。AdaGrad使得学习路径更为平缓,能更快找到梯度下降的最小点。文章展示了两种优化器在简单函数上的应用,并通过matplotlib绘制了结果对比图。
最低0.47元/天 解锁文章
7588

被折叠的 条评论
为什么被折叠?



