
吴恩达
小张的算法路
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
logit
1.为什么需要logit回归?线性回归不稳健 异常点对拟合直线的影响很大 so linear不适合做分类问题2.为什么要sigmoid?sigmoid能做什么?y=0,1是离散问题,直接建立方程 函数不连续——损失函数不可导——参数无法用梯度法优化所以我们由 转为的广义线性思路的值表征y取值的概率大小 最由概率大小转化为判断y的0,1值优点:给出了结论的置信度(...转载 2019-06-12 15:14:25 · 2051 阅读 · 0 评论 -
梯度下降
2019.06.10https://study.163.com/course/courseMain.htm?courseId=1004570029&_trace_c_p_k2_=daecf9d944fe4acab612e21ad9650c0c梯度下降重新看了一遍目录一、basis斜率学习率/步长local vs globalgradient vs no...转载 2019-06-10 15:28:42 · 228 阅读 · 0 评论 -
吴恩达
吴恩达老师机器学习课程中文文字版整理:https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes吴恩达老师深度学习课程中文文字版整理:https://github.com/fengdu78/deeplearning_ai_booksUFLDLhttps://blog.youkuaiyun.com/zwa...转载 2019-06-04 15:30:54 · 1784 阅读 · 0 评论 -
BP
为什么神经网络会有效考虑输入一个样本数量为n 特征为2(性别、是否成年人)的神经网络 输出为是否点击广告1.传统统计方法统计样本里女性点击率40% 男性60% 成年人20% 未成年人80%得到 成年女 0.08 未成年女 0.32 成年男0.12 未成年男 0.48https://blog.youkuaiyun.com/dang...原创 2019-06-26 11:00:51 · 148 阅读 · 0 评论