
机器学习算法
文章平均质量分 94
ML算法
NLP_victor
这个作者很懒,什么都没留下…
展开
-
算法笔记1——线性回归
目录 1 吴恩达机器学习之线性回归1.1单变量线性回归(Linear Regression with One Variable)1.2多变量线性回归(Linear Regression with Multiple Variables)1.3正则化线性回归1 吴恩达机器学习之线性回归1.1单变量线性回归(Linear Regression with One Variabl...原创 2018-10-07 21:49:46 · 475 阅读 · 0 评论 -
算法笔记2——逻辑回归
目录一、二元分类问题1.1 二分类任务1.2 对数几率1.3 极大似然法(maximum likelihood)1.4 优化算法1.5 模型综述二、两种角度看待逻辑回归2.1 统计学角度:似然函数2.2机器学习角度:损失函数2.3 最终预测:从概率到选择三 、模型评估四、多元逻辑回归五、scikit-learn中logistic regr...原创 2018-10-15 21:52:02 · 970 阅读 · 0 评论 -
算法笔记3——从凸优化问题角度看SVM
1 Linear SVM1.1 SVM基本型最条件的最优化问题(最大化间隔d)其中,代表w二范数的平方所以SVM基本型为:支持向量机是求解凸二次规划(目标函数是二次函数,约束函数是仿射函数)的最优化算法。凸优化问题的标准形式为:1.2 对偶问题应用拉格朗日对偶性,通过求解对偶问题(dual problem)得到原始问题的最优解,这样更易求解,且...原创 2018-12-03 20:06:14 · 1638 阅读 · 0 评论 -
必推公式:softmax交叉熵损失函数求导
转自:简单易懂的softmax交叉熵损失函数求导softmax经常被添加在分类任务的神经网络中的输出层,神经网络的反向传播中关键的步骤就是求导,从这个过程也可以更深刻地理解反向传播的过程,还可以对梯度传播的问题有更多的思考。softmax 函数softmax(柔性最大值)函数,一般在神经网络中, softmax可以作为分类任务的输出层。其实可以认为softmax输出的是几个类别选择的概率...转载 2019-04-01 11:32:13 · 796 阅读 · 0 评论 -
转行AI极简入门指南(内含推荐电子书)
经常有跨专业同学问如何入门AI,自己也是小白一枚,摸索了一段时间,写点推荐,希望对入门者有所帮助。上图是一年内买的实体书,这些书也能堆成小山了。(然而并没有完整看完几本, ̄□ ̄||,先作为案头书边查边用)文末有推荐书单的电子书下载链接!一起学习,一起努力!机器学习、统计学是2012年前AI的核心,之后AI因为深度学习(神经网络的发展)有所突破,深度学习有两个分支领域:计算...原创 2019-04-07 11:48:07 · 2104 阅读 · 0 评论