
AI
文章平均质量分 77
pushme_pli
这个作者很懒,什么都没留下…
展开
-
Deep Learning, Score function, Loss function 和 optimization function(一)
最近接触了深度学习(Deep Learning),觉得挺困难的,主要困难在跟数学搅和在了一起,天知道大学时候的数学基础还有多少没有交给老师,很费劲。现在总结下深度学习入门的几个基本概念,以供后查。放一个wikipedia关于Deep Learning的定义镇楼:https://en.wikipedia.org/wiki/Deep_learning因为深度学习使用场景是在是太多,为了...原创 2018-11-28 16:40:28 · 1858 阅读 · 0 评论 -
Deep Learning, Score function, Loss function 和 optimization function(二)
接上篇......我们先看看SVM,要loss小,SVM希望正确分类的得分要至少比所有不正确分类的得分都高个固定的分数△(比如高个10分),如果达到了这个要求loss就是0,看看公式吧:其中s是score的缩写,表明得分,j是每一个分类(比如猫类,车类)而yi则是正确的分类,注意j≠yi。 这个公式的意思就是说:将每一个分类的得分减去正确分类的得分再加上一个固定分,然后在跟0比...原创 2018-12-03 20:25:58 · 559 阅读 · 1 评论 -
Deep Learning, Score function, Loss function 和 optimization function(三)
接上篇......Optimization之前提到Loss函数用于衡量估计值(scrore)和真实值(label, 如鸟, 猫啊)的差距(Loss),这个估计值是基于某个W(weight)然后代入score函数算出来的。而Optimization函数是用来寻找一个更好的W能让loss尽可能的低。其实就是用于寻找一个更合理的W,目的是让Loss尽可能的低,这样就更接近真实值。对这种情形在...原创 2018-12-18 09:48:57 · 502 阅读 · 1 评论 -
Epoch 和 Batch
今天在看keras的文档的时候看到行代码:model.fit(x_train, y_train, epochs=5, batch_size=32)epochs和batch_size, 忽然有点迷糊,知道是两个很重要的hyper parameter, 具体指什么想不起来了,赶紧查了下,以备后用。依然是几个重要的名词:Batch size,Epoch这两个参数是SGD中的超参,假定...原创 2018-12-19 13:26:24 · 424 阅读 · 0 评论