- 博客(13)
- 收藏
- 关注
转载 BAT数据挖掘面试1000题链接汇总(701~800)
1、BAT机器学习面试1000题(701~705题)https://zhuanlan.zhihu.com/p/522247722、BAT机器学习面试1000题(706~710题)https://zhuanlan.zhihu.com/p/523198613、BAT机器学习面试1000题(711~715题)https://zhuanlan.zhihu.com/p/524117104、BAT...
2020-02-25 15:50:00
272
转载 BAT数据挖掘面试1000题链接汇总(601~700)
1、BAT机器学习面试1000题(601~605题)https://zhuanlan.zhihu.com/p/488554542、BAT机器学习面试1000题(606~610题)https://zhuanlan.zhihu.com/p/489682053、BAT机器学习面试1000题(616~620题)https://zhuanlan.zhihu.com/p/501021084、BAT...
2020-02-25 15:48:50
275
转载 BAT数据挖掘面试1000题链接汇总(501~600)
1、BAT机器学习面试1000题(511~515题)https://zhuanlan.zhihu.com/p/465241512、BAT机器学习面试1000题(516~520题)https://zhuanlan.zhihu.com/p/467783173、BAT机器学习面试1000题(526~530题)https://zhuanlan.zhihu.com/p/469202454、BAT...
2020-02-25 15:47:12
219
转载 BAT数据挖掘面试1000题链接汇总(401~500)
1、BAT机器学习面试1000题(406~410题)https://zhuanlan.zhihu.com/p/437430882、BAT机器学习面试1000题(411~415题)https://zhuanlan.zhihu.com/p/438359803、BAT机器学习面试1000题(416~420题)https://zhuanlan.zhihu.com/p/439262324、BAT...
2020-02-25 15:45:36
331
转载 BAT数据挖掘面试1000题链接汇总(301~400)
1、BAT机器学习面试1000题系列(301-305)知乎链接:https://zhuanlan.zhihu.com/p/333098342、BAT机器学习面试1000题系列(306-310)https://zhuanlan.zhihu.com/p/333437603、BAT机器学习面试1000题系列(311-315)https://zhuanlan.zhihu.com/p/334049...
2020-02-25 15:43:06
278
转载 BAT数据挖掘面试1000题链接汇总(201~300)
1、BAT机器学习面试1000题系列(201-205题)知乎链接:https://zhuanlan.zhihu.com/p/323963852、BAT机器学习面试1000题系列(206-210)知乎链接:https://zhuanlan.zhihu.com/p/324269323、BAT机器学习面试1000题系列(216-220)https://zhuanlan.zhihu.com/p/...
2020-02-25 15:41:10
221
转载 BAT数据挖掘面试1000题链接汇总(101~200)
1、BAT机器学习面试1000题系列(101-105题)知乎链接:https://zhuanlan.zhihu.com/p/315519362、BAT机器学习面试1000题系列(111-115题)https://zhuanlan.zhihu.com/p/316824993、BAT机器学习面试1000题系列(116-120题)知乎链接:https://zhuanlan.zhihu.com/...
2020-02-25 15:34:26
223
原创 BAT数据挖掘面试1000题链接汇总(1~100)
1、BAT机器学习面试1000题系列(第1~10题)知乎链接:https://zhuanlan.zhihu.com/p/303017892、BAT机器学习面试1000题系列(11-20题)知乎链接:https://zhuanlan.zhihu.com/p/303781233、BAT机器学习面试1000题系列(21-30题)知乎链接:https://zhuanlan.zhihu.com/p...
2020-02-24 22:12:15
452
转载 连续变量离散化的原因
一、离散化原因数据离散化是指将连续的数据进行分段,使其变为一段段离散化的区间。分段的原则有基于等距离、等频率或优化的方法。数据离散化的原因主要有以下几点:算法需要比如决策树、朴素贝叶斯等算法,都是基于离散型的数据展开的。如果要使用该类算法,必须将离散型的数据进行。有效的离散化能减小算法的时间和空间开销,提高系统对样本的分类聚类能力和抗噪声能力。离散化的特征相对于连续型特征更易理解,更接近...
2020-01-16 15:58:05
2718
原创 生成模型和判别模型基本形式有哪些
生成式:朴素贝叶斯、HMM、Gaussians、马尔科夫随机场判别式:LR(逻辑回归)、SVM(支持向量机)、神经网络、CRF、Boosting
2020-01-15 15:32:23
809
原创 逻辑回归(LR)与线性回归的区别
逻辑回归(LR)与线性回归的区别(1)线性回归用来做预测,输出范围为实数范围。LR用来做分类,输出范围为0-1的概率值。(2)线性回归用最小二乘法来计算参数,LR用最大似然估计来计算参数。(3)线性回归更容易受到异常值影响,而LR对异常值有较好的稳定性。...
2020-01-15 14:38:23
675
原创 sigmoid函数特性
sigmoid函数特性(1)定义域为R(2)值域为(0,1)(3)函数在定义域内为连续和光滑的函数(4)处处可导,且导函数满足S’(x)=S(x)(1-S(x))(5)S形函数,中间梯度大,越趋近于两端梯度越小,容易梯度消失。(6)导数值域为(0,0.25]Sigmoid函数由下列公式定义图形如下:优点:平滑、易于求导。缺点:激活函数计算量大,反向传播求误差梯度时,求导涉及...
2020-01-14 21:37:30
3640
原创 L1不可导的时候该怎么办
数据挖掘面试题集1、面试题之L1不可导的时候该怎么办当损失函数不可导,梯度下降不在有效,可以使用坐标轴下降法。梯度下降是沿着当前点的负梯度方向进行参数更新,而坐标轴下降法是沿着坐标轴的方法。假设有m个特征个数,坐标轴下降法进行参数更新的时候,先固定m-1个值,然后再求另外一个的局部最优解,从而避免损失函数不可导的问题。...
2020-01-14 17:37:19
1826
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人