- 博客(12)
- 收藏
- 关注
原创 【无标题】
(有放回抽样)从原始数据中生成多个子集,并对每个子集训练一棵决策树。在训练过程中,每棵树在分裂节点时,会随机选择一部分特征,而不是使用所有特征,从而增加了树的多样性,减少了模型的方差。随机森林的核心优势在于其强大的,即使在复杂的、高维的数据集上,也能避免模型的过拟合,适应数据中的噪声。它不仅能处理分类问题,还可以用于回归任务。对于分类任务,随机森林通过来决定最终的类别,对于回归任务,则通过所有树的预测值的来得出最终结果。此外,随机森林还具备良好的可扩展性,能够并行化训练过程,因此适合处理大规模数据集。
2025-03-09 15:43:15
832
原创 SVM算法原理解析
SVM是一个强大的分类算法,尤其在数据维度较高、样本较少时表现良好。通过最大化类间间隔,SVM能在训练数据中找到一个最优分类面,保证模型的高泛化能力。通过核方法,它还能处理非线性分类问题。但SVM对于大数据集和噪声较多的情况,可能需要更多的计算资源和细致的参数调节。
2025-03-09 15:05:22
760
原创 目标检测算法优化技巧
针对mixup作者做了不同参数设置下的实验效果对比,如Table1所示,这里涉及一个名词:weighted loss,在图表中也做了解释,因为模型训练用的图像来自2张原输入图像通过不同权重合并得到的(如Figure3所示),因此在计算损失函数时(损失函数是基于目标计算的),属于不同输入图像的目标的权重也是不一样的,需要和输入图像在合并时的权重对应。其中qi表示真实标签,pi是预测值,因为q是one-hot形式(假设分类类别数是K,那么q就是1×K的向量,且其中只有对应的真实类别位置是1,其余都为0)。
2023-09-22 21:48:20
319
1
原创 NMS原理总结
NMS算法的核心是通过比较重复预测框之间的IOU值,去除冗余的预测框,保留最优的结果。在YOLOv5中,NMS可以避免同一个物体被重复检测的问题,提高了检测的精度和效率。
2023-09-18 21:05:12
303
原创 HRNet原理
代码中在计算总损失时,并不是直接把每个关键点的损失进行相加,而是在相加前对于每个点的损失分别乘上不同的权重。的方式:即针对每个关键点预测一张热力图(预测出现在每个位置上的分数)。的方式:即直接预测每个关键点的位置坐标。当前检测效果最好的一些方法基本都是基于。3.预测结果(heatmap)的可视化。的,所以HRNet也是采用基于。2.HRNet网络结构。
2023-09-14 21:36:15
794
1
原创 计算机视觉知识框架
WEB图像结构化;离线SDK图像结构化;视频关键帧获取、结构化、序列化行为分析、结果图流媒体;性能上,高并发;高可用;单张时间,尽量在200ms以内,尤其是视频;准确度。
2023-09-14 21:12:20
546
1
原创 CV学习渠道整理
工欲善其事必先利其器!!!一.渠道主要包括:1.有CV牛人的主页2.CV研究小组的主页3.CV领域的paper,代码4.CV领域的最新动态5.国内的应用情况二. (1)googleResearch; http://research.google.com/index.html (2)MIT博士,汤晓欧学生林达华; http://people.csail.mit.edu/dhlin/index.html (3)MIT博士后Douglas Lanman; http://web.media.mit.ed
2023-09-14 09:52:58
219
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅