- 博客(12)
- 收藏
- 关注
原创 深度学习面试问题
Sigmoid函数在z很大或z很小的时候,梯度都接近于0,这样,误差经过每一层传递都会不断衰减,当网络层数很深时,梯度就会不停衰减,甚至消失,使得整个网络很难训练。一种简单有效的解决方法是使用导数比较大的激活函数,比如ReLUAlexNet:使用GPU进行并行训练,采用ReLU作为非线性激活函数,使用Dropout防止过拟合,使用数据增强提高模型准确率,使用局部响应归一化以增强模型的泛化能力。Inception网络:一个卷积层包含多个不同大小的卷积操作,成为Inception模块。
2024-05-20 16:10:27
1651
1
原创 机器学习/数据挖掘面试问题——第10章 降维与度量学习
kNN:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个样本,然后基于这k个邻居的信息来进行预测,通常在分类任务中可以采用投票法,在回归任务中可以采用平均法,还可以根据距离远近进行加权平均或加权投票。
2024-05-18 21:20:21
294
1
原创 机器学习/数据挖掘面试问题——第11章 特征选择与稀疏学习
从大量有噪声的数据中提取出隐含的、有价值的信息的过程。将若干分散数据源中的数据集成到一个统一的数据集合中。存在实体识别问题(同名异义、异名同义、单位统一)、属性冗余问题、数据值冲突问题(规格单位、编码)将特征选择与学习器训练过程融为一体,两者在同一个优化过程中完成,即学习器训练过程中自动地进行了特征选择。例如岭回归、Lasso回归。
2024-05-18 21:17:43
765
1
原创 机器学习/数据挖掘面试问题——第8章 集成学习
通过构建并结合多个学习器来完成学习任务。同质:集成的个体学习器(基学习器)相同,异质:集成的个体学习器不同。
2024-05-18 19:57:04
1001
1
原创 机器学习/数据挖掘面试问题——第4章 决策树
假设离散属性a有V个可能取值,若使用a来对D进行划分,则会产生V个分支结点,其中第v个分支结点包含了D中所有在属性a上取值为的样本,记为,用属性a对D划分后得到的信息增益为信息增益越大,表明使用属性a来进行划分所获得的纯度提升越大。但是,信息增益准则对可取值数目较多的属性有所偏好,为此引入增益率。ID3算法采用信息增益为准则。IV(a)称为a的固有值,属性a的可能取值越多,IV(a)越大。C4.5算法采用增益率为划分准则。
2024-05-17 17:02:19
1071
1
原创 机器学习/数据挖掘面试问题——第6章 支持向量机
是一种有监督的二分类算法,在样本空间中找到一个划分超平面,将不同类别的样本分开的算法。进行分割的策略主要有三种:当训练样本线性可分时,硬间隔最大化,学习一个线性分类器。当训练样本近似线性可分时,引入松弛变量,软间隔最大化,学习一个线性分类器。当训练样本线性不可分时,通过核函数和软间隔最大化,学习非线性SVM。当样本线性不可分时,可以将样本从原始空间映射到一个更高维度的空间,使得在这个特征空间线性可分。令表示将x映射后的特征向量,在特征空间中划分超平面所对应的模型可以表示为,其对偶问题为。
2024-05-17 16:02:34
449
1
原创 机器学习/数据挖掘面试问题——第3章 线性模型
将z值转化为一个接近于0或1的y值给定训练样例集,将样例投影到一条直线上,使得同类样例的投影点尽可能接近,异类样例的投影点尽可能远离,在对新样本进行分类时,将其投影到同样的直线上,根据投影点的位置来确定新样本的类别。
2024-05-17 12:03:54
196
1
原创 机器学习/数据挖掘面试问题——第2章 模型评估与选择
以查准率为纵轴,查全率为横轴作图就得到P-R曲线。如果一个学习器的P-R曲线被另一个学习器的曲线完全包住,则可认为后者的性能优于前者。纵轴:真正例率(TPR),横轴:假正例率(FPR)若一个学习器的ROC曲线被另一个学习器的曲线完全包住,则可断言后者的性能优于前者;若两个学习器的ROC曲线发生交叉,则可以比较ROC曲线下的面积,即AUC。过拟合:学习器把训练样本学得太好了,把训练样本自身的一些特点当作所有潜在样本会具有的一般性质,导致泛化性能下降。欠拟合:对训练样本的一般性质尚未学好。
2024-05-16 22:54:36
976
2
原创 代码随想录+力扣刷题记录+华为机考准备记录
为了准备华为机考的刷题记录(不全)(已挂,春招再战)为了准备华为机考的刷题记录(不全)(已挂,春招再战)
2024-05-16 12:43:21
1676
2
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人