
深度学习
wind_liang
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深度学习零基础入门一:线性回归
Linear Regression 美 [ˈlɪniər] [rɪˈɡrɛʃən] : 线性回归 Loss funcition 美 [lɔs] [ˈfʌŋkʃən] : 损失函数 Gradient Descent 美[ˈɡrediənt] [dɪˈsɛnt] : 梯度下降 Model 美 [ˈmɑdl] : 模型 本文是对李宏毅教授课程的笔记加上自己的理解重新组织,如有原创 2018-01-22 18:34:30 · 2159 阅读 · 0 评论 -
零基础入门深度学习三:梯度下降优化
tuning 美 ['tjunɪŋ] : 调整 learning rate 美[ˈlɚnɪŋ ret] : 学习速率 stochastic 美 [stə'kæstɪk]:随机的 batch 美 [bætʃ] : 一批 dimension 美 [dɪˈmɛnʃən, daɪ-] : 维度 mean 美 [min] : 平均数 standard deviation美原创 2018-02-02 15:15:40 · 412 阅读 · 0 评论 -
深度学习零基础入门零
毕业设计是和深度学习相关,之前零零碎碎的学习了一些相关知识,这里开个系列文章总结一些,以免又看了忘,再看又不方便。 深度学习目前可以说是非常火了,而深度学习是机器学习的一个分支,机器学习也只是人工智能的一个分支。 我是跟着李宏毅教授的上课视频一起学,这是地址 http://speech.ee.ntu.edu.tw/~tlkagk/courses.html ,我看的是里边的原创 2018-01-20 22:16:45 · 921 阅读 · 0 评论 -
零基础入门深度学习二:梯度下降
Gradient Descent 美[ˈɡrediənt] [dɪˈsɛnt] : 梯度下降 Loss funcition 美 [lɔs] [ˈfʌŋkʃən] : 损失函数 Local Minima 美 [ˈloʊkl] ['mɪnɪmə] : 局部最小值 Taylor series 美[ˈtelɚ] [ˈsɪriz] : 泰勒级数 本文是对李宏毅教授课程的笔记加上自原创 2018-01-30 15:37:01 · 386 阅读 · 0 评论 -
零基础入门深度学习五:逻辑回归
Sigmoid 美 ['sɪgmɔɪd] : S 形的Discriminative 美 [dɪ'skrɪməˌneɪtɪv] : 判别本文是对李宏毅教授课程的笔记加上自己的理解重新组织,如有错误,感谢指出。视频及 PPT 原教程:https://pan.baidu.com/s/1brbb6rX 密码:ty1r接着上篇的生成模型,我们进行下公式的变形,见证奇迹的发生!问题的关键是求出 P( x |...原创 2018-02-12 19:55:52 · 400 阅读 · 0 评论 -
零基础入门深度学习四:生成模型
Generative 美 [ˈdʒɛnərətɪv, -əˌre-] : 能生产的,有生产力的; 生殖的; Model 美 [ˈmɑdl] : 模型 likelihood [ˈlaɪkliˌhʊd] : 似然函数 Maximum 美 [ˈmæksəməm] : 最大值 features 美 ['fitʃəz] : 特征 vector 美[ˈvɛktɚ] : 向量原创 2018-02-07 18:57:47 · 1373 阅读 · 0 评论 -
零基础入门深度学习六:深度学习基本概念
本文是对李宏毅教授课程的笔记加上自己的理解重新组织,如有错误,感谢指出。视频及 PPT 原教程:https://pan.baidu.com/s/1dAFnki 密码:5rsd还没有看过前几篇机器学习理论的童鞋,推荐先把前几篇看完。这里接着上篇的 Logistic Regression 来讲。Limitation of Logistic Regression看这样一个二元分类问题,假设我们有四个数据...原创 2018-03-13 10:05:43 · 641 阅读 · 0 评论