- 博客(10)
- 收藏
- 关注
原创 关于python中的list
python中的list使用起来很方便,append和remove等等。但是当需要初始化二维数组并且在后续改变其中某一个位置的值得时候,或出现错误。比如这样初始化:当我只想改变a[0][0]的时候,a[i][0]都会变:这样初始化的时候:可以正常地改变指定位置的值:...
2019-10-30 21:32:14
140
原创 激活函数
一般在图像的目标检测,图像分类中,用到损失函数是交叉熵。一、sigmoid用作二分类,在特征相差比较复杂或是相差不是特别大时效果比较好。二、softmax用作多分类。“soft”在于连续可微。比起sigmoid,数值稳定。所有值得和为1,那么就会此消彼涨,有相互抑制的效果softmax(z)i=exp(zi)/Σjexp(zj)softmax(z)_i=exp(z_i)/\Sigma _...
2019-10-10 20:34:28
941
原创 各排序以及python代码实现
一、总述一般是内部排序。二、冒泡排序每一次都将最大(小)的数沉到末尾。def maopao(num): for i in range(1,len(num)): for j in range(0,len(num)-i): if num[j]>num[j+1]: num[j],num[j+1] = num[j+1],num[j] ...
2019-09-18 20:16:07
310
原创 模型评估方法(Accuracy,Precision,Recall,F1 Score,ROC,AUC,IoU)
今晚花椒直播的现场笔试写这个,在其他的线上鄙视中也考得比较多,有时候面试也会遇到。一、混淆矩阵二、AccuracyAccuracy=预测正确的数量/总数量=(TP+TN)/(TP+FP+TN+FN)Accuracy=预测正确的数量/总数量=(TP+TN)/(TP+FP+TN+FN)Accuracy=预测正确的数量/总数量=(TP+TN)/(TP+FP+TN+FN)三、Precision(...
2019-09-17 22:07:44
2148
1
原创 K-NN和K-means
一、k近邻法(K nearest neighbor,K-NN)(K=1:最近邻)K-NN是有监督学习算法。给定一个训练数据集,对新输入的实例,在训练数据集中找到与该实例最邻近的k个实例,着k个实例的多数属于某一类,那么就把该实例分为哪一类。当训练集、距离度量、k值和决策规则确定后,对于任何新输入的实例,它所属的类唯一地确定。1.1 距离度量欧氏距离(常用的方法),马氏距离,曼哈顿距离…1...
2019-09-17 21:12:33
451
原创 集成学习(ensemble learning)
一、总述集成学习通过构建并结合各个学习器来完成学习任务,以获得比单个学习器更优的性能(核心是每个学习器“好而不同”):先产生一组个体学习器,再用某种策略将它们组合起来。同质(homogeneous)集成:决策树集成,神经网络集成…个体为基学习器,算法为基学习算法。异质(heterogenous)集成:包含不同类型的学习器,个体为组建学习器。Boosting:个体学习器之间存在强依赖关系、必须串...
2019-09-15 18:17:11
492
原创 决策树(decision tree)
一、总述决策树可用于分类和回归,主要是用于分类。决策树包含结点(内结点代表特征,外结点代表类)和有向边,将决策树转换为if-then规则,是互斥且完备的。目标:构建与训练数据矛盾较小的决策树。损失函数是正则化的极大似然函数。决策树的生成只考虑局部最优(这一次选择的特征有最好的分类能力),剪枝考虑全局最优。找出最优树是完全NP问题,找出次优树是一种启发式过程。包含三个步骤:特征选择,决策树的...
2019-09-15 15:43:54
329
原创 朴素贝叶斯(naive bayes)
朴素贝叶斯在自然语言处理(NLP)中使用较频繁。步骤:(1)计算先验概率和条件(2)对于需要预测的实例,计算:(3)确定每个实例所属的类别:下面来看一个例子(来自李航的《统计学习方法》):X(1),X(2)X^{(1)},X^{(2)}X(1),X(2)为特征,取值集合分别为A1=A_1=A1={1,2,3},A2=A_2=A2={S,M,L},Y为类别标记,Y=Y=Y={1...
2019-09-13 16:34:38
141
原创 支持向量机(SVM)
SVM是典型的二分类器。1.划分超平面WTx+b=0W^Tx+b=0WTx+b=0,将数据划分为两类。划分超平面有多个,选择泛化能力最好的那个2.离超平面最近的点位支持向量点,两个异类支持向量点到超平面之和:r=2/∣∣W∣∣r=2/||W||r=2/∣∣W∣∣,要使它最大,那么就是使∣∣w∣∣2/2||w||^2/2∣∣w∣∣2/2最小。使用拉格朗日法来求解。3.对于线性不可分的数据,映射...
2019-09-13 15:09:52
188
原创 逻辑回归(Logistic regression)
实习完回学校,搞完了开题答辩,最近因为找工作需要,开始复习一些算法方面在笔试面试中会遇到的问题。用博客记录,之后要再看的话比较方便。如有错误,欢迎指正。逻辑回归(Logistic regression)逻辑回归是分类方法。用的是sigmoid激活函数,特点:1.将输入值映射到(0,1)区间。2.函数图像连续且光滑,严格的单调递增函数,处处可导。3.在0附近比较敏感。优点:形式简单,易...
2019-09-13 14:20:06
878
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人