- 博客(7)
- 收藏
- 关注
转载 逻辑回归
今天把逻辑回归梳理了一遍,重点如下: 1. 几率(odds): 一件事情发生的概率p与它不发生概率的比,即odds = p/(1-p) 2. 对数几率:log(odds) = log( p/(1-p)) 3. 逻辑回归:log(p/(1=p)) = W·X 4. 多分类的逻辑回归:具体推导后补 转载于:https://www.cnblogs.com/yah...
2019-05-09 21:42:00
137
转载 MarkDown 示例
# <a><font size=6 color=#FF7F00><center>6决策树与随机森林</center></font></a>---# <a><font color=blue>$\clubsuit$ 一级标题,默认大小</font></a> # <a...
2019-05-09 17:56:00
106
转载 np.where()
https://www.cnblogs.com/massquantity/p/8908859.html 转载于:https://www.cnblogs.com/yahongcui/p/9870231.html
2018-10-29 13:43:00
110
转载 pandas入门 - 主要数据结构Series和DataFrame
https://www.fashici.com/tech/184.html 转载于:https://www.cnblogs.com/yahongcui/p/9870167.html
2018-10-29 13:30:00
132
转载 numpy之meshgrid和where
https://www.cnblogs.com/sunshinewang/p/6897966.html 转载于:https://www.cnblogs.com/yahongcui/p/9841982.html
2018-10-24 10:12:00
87
转载 Python可视化库matplotlib.pyplot里contour与contourf的区别
https://blog.youkuaiyun.com/cymy001/article/details/78513712 转载于:https://www.cnblogs.com/yahongcui/p/9841959.html
2018-10-24 10:09:00
242
转载 决策树
ID3 (信息增益):分类 定义:信息增益 g(D, A) =数据集D的经验熵 H(D) - 某个特征A对于数据集D的经验条件熵H(D | A) 步骤:计算每个特征的信息增益,取信息增益最大的特征作为划分。 缺点:偏向于选择取值较多的特征,影响分类的泛化能力。 比如一个特征由原来的两个取值,变为三个时,有H(D | A) = C·∑1/2·log(1/2) = ...
2018-10-20 10:36:00
108
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人