[论文笔记]Adaptive Subgradient Methods for Online Learning and Stochastic Optimization

本文介绍了一种新的Adagrad次梯度方法家族,该方法能够在在线学习过程中动态利用之前的数据信息来提高基于梯度的学习效果。这种方法特别适用于高维样本中稀疏且信息丰富的特征,并通过调整学习率来优化高频与低频特征的学习效率。
AI助手已提取文章相关产品:

Abstract

作者提出一个新的次梯度方法家族,可以动态地吸收之前的看过的数据的信息,来进行更informative的基于梯度的学习.它可以找到很有信息的特征,即使非常罕见.

1.Introduction

背景:在很多在线学习中,样本维度很高,但是只有少量非零特征.罕见的特征经常很有信息量.前人基于这点,做了很多工作,比如TF-IDF.
直觉:高频学习率低,低频学习率高.高速模型,低频时间要”注意”.

1.1 Adagrad

您可能感兴趣的与本文相关内容

评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值