
pmp学习笔记
pmp课堂笔记专栏
淘气淘的宝宝
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
map reduce
1.python里的用法:map()函数实现将参数一一给到函数并返回结果的功能例如:def f(a): return str(a)map(f, [1, 2, 3, 4])out:['1','2','3','4']reduce()函数实现将前一个结果和当前参数共同放入函数中并计算结果,换句话说,前边一个执行结果是后边函数的一个参数(python3里用reduce需要导入)例如:from functools import reducedef add(x,y...原创 2021-02-02 14:41:20 · 182 阅读 · 0 评论 -
ch01 错题
一、错题1.2.3.二、易错题原创 2021-02-01 19:58:11 · 219 阅读 · 0 评论 -
5.产品与项目的对比
原创 2021-01-14 18:44:26 · 187 阅读 · 0 评论 -
4.STACEY矩阵及其对应的开发模型、敏捷开发评估方法
敏捷型开发适用性评估方法-----雷达图:图中绿色部分面积越小越适合使用原创 2021-01-14 18:43:05 · 2105 阅读 · 0 评论 -
3.项目阶段
原创 2021-01-14 18:40:07 · 142 阅读 · 0 评论 -
2.1敏捷开发-Scrum框架
原创 2021-01-14 18:39:14 · 162 阅读 · 0 评论 -
2.项目生命周期
原创 2021-01-14 18:37:33 · 127 阅读 · 0 评论 -
1.项目描述
原创 2021-01-14 18:36:33 · 308 阅读 · 0 评论 -
日期格式化、元组、时间戳之间的转换
参考链接:https://finthon.com/python-time/原创 2021-01-08 16:18:52 · 462 阅读 · 0 评论 -
关于AUC的另一个解释
问题描述:同样的数据,不同的特征,预测是否成交时,当auc越高,精确率在0.6时预测数量却越少,auc越低,精确率在0.6时预测数量却增多本质:AUC的另一解释:一个正例,一个负例,预测为正的概率值比预测为负的概率值还要大的可能性解释:auc低,预测为正的概率低,对应模型的召回低,整体预测为1的样本量就少,导致精确率高;auc高,偏向于将样本预测为正样本,会导致召回率越高,但精确率低。参考温州:https://blog.youkuaiyun.com/u013385925/article/details/.原创 2021-01-05 17:31:24 · 814 阅读 · 0 评论 -
信息熵、信息增益
关于信息熵、信息增益的一些思考1.为什么信息熵越大,蕴含的信息量越多?拿二分类问题来说,首先信息熵的公式是Ent(D) = -(p*log_2( p)+(1-p)*log_2(1-p))p是某一类(假设label=0)的概率,那么1-p就是另一类的概率,图像如下:上图x轴时概率p,y轴时信息熵, 由图像可得,当p=0或者1时,熵最小为0,此时变成了只有一类的问题,那么类别就很确定,只能是p=1所对应的类,蕴含的信息量少而确定,而当p=0.5时,此时信息熵最大为1,而且对于类别的预测就和随机猜测结原创 2020-12-23 14:57:01 · 983 阅读 · 0 评论 -
线性回归
之前有面试官问到关于回归正则化公式,忘了怎么说的我摇了摇脑袋里的水说了λ*杠杠w,面试官说你说的啥,卒....遂,整理了回归函数,顺便让自己记住这次教训。后边还有关于聚类和分类的....参考文献:https://www.zhihu.com/search?type=content&q=%E7%BA%BF%E6%80%A7%E5%9B%9E%E5%BD%92%20%E6%8D%9F%E5%A4%B1%E5%87%BD%E6%95%B0...原创 2020-12-17 17:26:23 · 103 阅读 · 0 评论 -
2020-12-01
1.激活函数有什么作用,常用的的激活函数激活函数的作用是整合隐藏层每一个节点的输出结果。如果不适用激活函数,每一层节点的输入都是上一层输出的线性函数,无论经过多少层都是这样,与没有隐藏层效果相当,类似原始感知机,那么网络的表达能力相当有限。引入非线性函数作为激活函数之后,增强了神经网络的表达能力。常用的激活函数有Sigmoid、Tanh、ReLU、Leaky ReLU(线性修正的ReLu函数)1)sigmoid函数:将回归结果映射到0-1之间,适合用做二分类问题以及非线性表达;但是.原创 2020-12-01 20:59:57 · 520 阅读 · 0 评论 -
1125day7
1.SVM算法的优缺点优点:可以优先解决高维特征的分类 和回归问题无需依赖全体样本,只依赖支持向量有大量的核技巧可以使用,从而应对线性不可分问题适合样本量少的数据集缺点:如果特征维度远远大于样本个数,svm表现一般svm在样本巨大时使用和函数时计算量很大非线性数据的和函数选择没有标准svm对缺失和噪声数据敏感2.SVM的超参数C如何调节C和正则化参数lambda相反,过拟合时减少C值,欠拟合时增大C值3.SVM的核函数如何选择当特征维度n较高,而...原创 2020-11-26 21:00:36 · 129 阅读 · 0 评论 -
1124day6
1.请简述SVM 原理找出能将类别分开的距离结点距离最大的分离超平面2.SVM 为什么采用间隔最大化3.SVM 为什么要引入 核函数核函数将数据从低维映射到了高维,使数据从低维不可分变成了高维可分。4.SVM 核函数之间的区别 5.为什么SVM对缺失数据敏感 ...原创 2020-11-26 20:30:29 · 134 阅读 · 0 评论 -
1123day6
1.简述kmeans流程随机选择k个结点作为聚类中心,依次计算所有结点到距离中心的距离,将新的结点划分到与其最近的聚类中心所在的簇,更新聚类中心点,重复次过程,直至所有的数据所属的簇不在发生变化为止2.kmeans对异常值是否敏感?为何?敏感,因为K-mean需要计算距离,异常值会导致距离变化,从而分类错误3.如何评估聚类效果兰德系数调整兰德系数轮廓系数4.超参数k如何选择?肘部法则:遍历不同的K,计算代价函数,并画出代价函数变化趋势,选择使代价函数变平缓的点所对应得K值...原创 2020-11-23 20:48:38 · 301 阅读 · 0 评论 -
1119day5
1.简述XGBoost。XGBoost是boosting模型,是大规模、分布式的通用GBDT库,也是串行训练多个基分类器,每一个分类器拟合前一个分类器的残差。2.XGBoost和GBDT有什么不同?XGBoost是GBDT的工程实现,GBDT是算法在使用CART作为基础分类器时,xgboost显式的加入了正则项来控制模型复杂度,有利于防止过拟合,从而提高模型的泛化能力目标函数不同,xgboost的目标函数可以用泰勒展开式表示,加入了正则化项和常数项(XGBoost对代价函数进行二阶泰勒展开原创 2020-11-23 20:11:40 · 106 阅读 · 0 评论 -
1118 day4
1.简述GBDT原u理。首先根据现有的数据训练树一棵树,然后去计算真实值和预测值的差值,也就是残差,然后下一棵树去拟合该残差,重复直至残差为0。所有弱分类器的结果相加等于预测值,也就是说,每一个分类器拟合的是残差;2.GBDT常用损失函数有哪些?MAE,MSE,huber损失3.GBDT如何用于分类?将分类问题转化成logistic回归问题即可4.为什么GBDT不适合使用高维稀疏特征?难以进行特征划分5.GBDT算法的优缺点?优点: 并行预测带来的速度提升 ...原创 2020-11-18 18:00:20 · 120 阅读 · 0 评论 -
11.12day1
补上第一天知识点一、这是我的答案二、老师的答案原创 2020-11-18 17:19:56 · 135 阅读 · 0 评论 -
1117-day3
1.简述一下随机森林算法的原理2.随机森林的随机性体现在哪里?3.随机森林算法的优缺点?4.随机森林为什么不能用全样本去训练m棵决策树?5.随机森林和GBDT的区别?题目文档可通过群文件获取word文档...原创 2020-11-17 21:02:24 · 154 阅读 · 0 评论 -
1116-day2
一、我的答案1.什么是集成学习算法?集成学习是指由多个弱分类器组合成的强分类器。主要包括随机森林,xgboost,lgb等模型2.集成学习主要有哪几种框架, 并简述它们的工作过程?随机森林:基分类器是决策树,通过随机选择部分数据,部分特征进行训练,并采用如多数表决的投票方式或加权方式选出最终结果Adaboost:xgboost:与随机森林有所不同,它通过串行建立决策树去拟合上一个分类器与真实值的残差,直至损失函数最小时停止lgb:采用直方图加速,支持类别变量,也是拟合残差3.B原创 2020-11-16 19:49:08 · 214 阅读 · 0 评论 -
神经网络在分类中的应用
我们知道,逻辑回归可以用来分类,但仅仅是对于特征量很少时,当特征量特别多时,就不适用了,所以引入了神经网络。声明一下,当类别数C>=3时,输出层有C个结点,否则只用一个结点就可以了;激活函数就是非线性函数比如sigmoid、Relu等。1.神经网络首先了解一下单一神经元内部的构造(图片来源https://blog.youkuaiyun.com/tyhj_sf/article/details/...原创 2020-04-26 16:31:58 · 1389 阅读 · 0 评论 -
决策边界、代价函数、多元分类
1.决策边界:根据logistic回归方程的假设函数h(x)=g(),g(z)=1/(1+e^(-z)),g(z){0,1},可知当g(z)>=0.5时z>=0时,相反z<0,分类时只要满足>=0就可以实现分类,当参数确定时,即可绘制出一条线,当该线就有线性特征时,即为线性可分,否则为非线性可分(但仍然可以分类,比如圆、椭圆等)。另:决策边界只由参数theta决定,跟训练集...原创 2020-04-23 16:16:57 · 825 阅读 · 0 评论