
AI面试问答
文章平均质量分 63
WeissSama
写清楚 搞清楚
展开
-
【总结】一些常见的计算机视觉和深度学习问答,面试可能会问到。
BN的优点是网上谈过无数次的问题,不过我还是写了一篇博客具体介绍。博客地址再说优缺点首先关于BN,BN虽然很伟大,但是并不是没有缺点的,比如当我们的模型非常大的时候我们只能设置比较小的Batch Size,毕竟内存就那么多。而GN,在每个特征图BxHxWxC中,它将channel分成多个组,在每组内计算均值和方差,GN的计算与BatchSize无关,在Batch SIze小的时候带来的精度远超BN,而适当Batch Size的时候,BN和GN效果相当。原创 2023-03-14 01:44:41 · 768 阅读 · 0 评论 -
AI面试问答积累
1. 梯度下降算法的步骤1初始化权重和偏差2输入送到网络,得到输出值3计算输出值和真实值之间的误差4对每一层调整相应的权重以减少偏差5重复迭代,直到真实值和输出值之间误差最小2、下面哪项操作能实现跟神经网络中Dropout的类似效果?先介绍什么是bagging和boostingbagging是从原始样本集中抽取训练集。每轮从原始样本集中使用有放回抽样[booststrap]的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中)。共进行k轮抽取,得到k个原创 2022-05-09 10:52:02 · 879 阅读 · 0 评论 -
Yolov1-Yolov5的各个loss函数
YoLo v1 将目标检测看成一个回归问题,坐标、宽高、分类、置信度损失全都采用的SSE(和方差)损失函数,一顿狂怼,依赖平台的算例把目标检测出来。没什么技巧。 YoLo v2 v2的损失函数跟v1差别不大,唯一的差别就是关于bbox的w和h的损失去掉了根号,作者认为根号没有必要。YoLo v3 v3的损失函数最大的变动是分类损失换成了二分交叉熵,这是由于v3中提出了softmax和logistic。还有一点就是关于bbox的w和h的损失根号又加上去了,明明v2认为没有必要了…YoLo v4原创 2022-04-17 22:49:55 · 1093 阅读 · 0 评论 -
Batch Normalization介绍
softmax函数的定义和作用softmax函数可以把它的输入值处理成0到1区间,并且能把输出的和等于1,这样意味着softmax与分类的概率等价,所以它是网络预测多分类问题的最佳输出激活函数。什么是空洞卷积空顶卷积就是在卷积核元素之间加入一些空格零来扩大卷积核的过程,可用于廉价的增加输出单元的感受野,这在多种不同的空洞卷积彼此堆叠时候尤其有效。目标检测任务是分类任务还是回归任务目标检测有分类分支,用于目标分类,也有回归分支,用于定位目标RPN中正类和负类的筛选阈值是什么首先对于每一个gt,选原创 2022-02-28 09:17:58 · 452 阅读 · 0 评论