
人工智能基础
文章平均质量分 58
xyzxyz576
这个作者很懒,什么都没留下…
展开
-
AI-图像数据检查
做cv的朋友经常要接触图片,在做图像处理(筛选、重命名、质量检查)时千万要注意图像是否损害,其实很容易判断的时图片能不能正常打开,另一种容易被忽视的图片损坏就是图像截断,如线图所示:上述都是可以正常打开的图片,但是属于截断,在做图像前处理时很容易引起错误,在用别人的框架训练推理模型时有时会出错,这是个很简单但容易被忽视,可通过如下简单的脚本进行检查此类损坏。def check_img_if_normal_or_damage(img_dir, bad_data_d...原创 2022-03-07 18:26:45 · 766 阅读 · 0 评论 -
召回(recall),查准(precision),平均精度(ap) 之间的关系
召回率(tp/(tp+fn))和查准率(tp/(tp+fp))相对比较好理解,平均精度的理解相对比较难些,主要是物理意义不够明确,至少对我来讲是这样的,做项目的使用用到openmmlab,一个很好的ai框架,在使用他们的检测框架时,默认会打印出上述三个参数。他们其实也会受一些超参数(阈值)的影响。比如,NMS_thresh, iou_thresh, confidence_thresh, 分别对应的物理意义是:conf_thresh, 就是检测物体框的置信度,它包含物体的概率或分数Nms_thres.原创 2021-11-08 10:09:06 · 2927 阅读 · 0 评论 -
CNN、DNN、RNN 区别
转自:https://blog.youkuaiyun.com/lff1208/article/details/77717149神经网络的来源 神经网络技术起源于上世纪五、六十年代,当时叫感知机(perceptron),包含有输入层、输出层和一个隐藏层。输入的特征向量通过隐藏层变换到达输出层,由输出层得到分类结果。但早期的单层感知机存在一个严重的问题——它对稍微复杂一些的函数都无能为力(如异或...转载 2018-07-18 09:47:14 · 1297 阅读 · 0 评论 -
极大似然估计
极大似然估计,通俗理解来说,就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值!换句话说,极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。可能有小伙伴就要说了,还是有点抽象呀。我们这样想,一当模型满足某个分布,它的参数值我通过极大似然估计法求出来的话。比如正态分布中公式如下: 如果我通过极大似然...转载 2018-09-28 15:05:15 · 351 阅读 · 0 评论 -
集成学习算法(1)
集成学习简介 在讲boosting和bagging算法之前,首先需要了解一下集成学习的概念。集成学习是指将若干弱分类器组合之后产生一个强分类器。弱分类器(weak learner)指那些分类准确率只稍好于随机猜测的分类器(error rate < 50%)。如今集成学习有两个流派,一种是bagging流派,它的特点是各个弱学习器之间没有依赖关系,可以并行拟合,随机森林算法就属于baggi...转载 2018-09-29 09:49:19 · 483 阅读 · 0 评论 -
集成学习算法(2)
集成学习(ensemble learning)可以说是现在非常火爆的机器学习方法了。它本身不是一个单独的机器学习算法,而是通过构建并结合多个机器学习器来完成学习任务。也就是我们常说的“博采众长”。集成学习可以用于分类问题集成,回归问题集成,特征选取集成,异常点检测集成等等,可以说所有的机器学习领域都可以看到集成学习的身影。本文就对集成学习的原理做一个总结。1. 集成学习概述 从下图,...转载 2018-09-29 09:49:03 · 400 阅读 · 0 评论