- 博客(16)
- 收藏
- 关注
原创 机器学习逻辑回归
改用Softmax回归(Multinomial Logistic Regression),损失函数变为交叉熵。默认使用0.5作为分类阈值,实际业务中可根据PR曲线调整(如癌症检测需更高召回率)。若损失震荡不收敛,可尝试减小学习率或改用torch.optim.Adam优化器。交叉熵损失在分类任务中收敛更快。逻辑回归对特征尺度敏感,必须使用StandardScaler进行标准化处理。加入L1/L2正则化(对应参数penalty),或通过特征选择减少冗余特征。3.逻辑回归如何防止过拟合?其中 ,α 为学习率。
2025-05-27 13:53:51
473
原创 AOI(自动光学检测)的原理
不同AOI软、硬件设计各有特点,总体来看,其分析、判断算法可分为两种,即设计规则检测(DRC)和图形识别检验。
2024-03-06 18:22:00
3353
1
原创 min-max标准化,0均值归一化,L2规范化 c++实现
最小-最大规范化对原始数据进行线性变换,变换到[0,1]区间(也可以是其他固定最小最大值的区间)xnxn−minmax−min。
2024-03-06 13:51:32
1983
原创 多模态学习历程(LMM详解)
想象一个机器,它的工作就是从一堆预先设定的选项中,选择一个最合适的类别。但这种方法只在选项有限的情况下才行得通。之前的很多模型都受到这样的限制。比如,ILSVRC-2012 的模型只能在 1,000 个类别中选择,而 JFT-300M 的选择则为 18,291 个类别。这种方法的缺陷是,模型可能会受到类别的限制而无法给出丰富的回答,还限制了其零样本 (Zero-shot) 学习的能力。比方说,如果训练它只认识 10 种类别,那么当出现 100 种类别时,它就不知所措了。
2024-01-23 17:56:39
2795
原创 多模态学习历程(1.1 Vision Transformer解读_Self-attention)
[TOC] (Vision Transformer , 通用 Vision Backbone 超详细解读)
2024-01-11 20:00:56
1020
原创 opencv c++在visual studio 2022中的配置
我个人用的是visual studio的2022版本,网上安装visual studio的教程非常多,这里我默认大家已经安装好了visual studio 2022. 然后接下去我们进入opencv的下载与安装。这里附上链接,点击链接进入opencv官网链接:opencv我使用的是4.5.5。首先我安装的是visual studio 2022,其次我用的windows系统,因此我选择了opencv-4.5.5的windows,然后点击下载即可。我们会进入这个界面:等待读秒的结束,会自动弹出下载的。
2023-12-22 10:18:54
215
原创 计算机视觉之分类任务常用损失值loss对比分析
计算机视觉分类任务常用损失值loss对比分析一、对比分析cross-entropy loss、Focal Loss、asymmetric_loss、GFocal Loss之间的关系及改进1. 分类任务介绍与损失函数如何设计的合理2.cross-entropy loss和Focal Loss的对比和改进3.asymmetric_loss的介绍与优点4.GFocal Loss介绍与优点一、对比分析cross-entropy loss、Focal Loss、asymmetric_loss、GFocal Loss
2021-06-18 21:28:48
6823
1
原创 ubuntu18.04 CUDA10.1 docker中安装caffe-ssd及分类检测数据集训练与测试(一)
ubuntu18.04 CUDA10.1 docker中安装caffe-ssd教程前言一、caffe-ssd是什么?二、使用步骤1.总体环境介绍2.创建docker与安装配置3.caffe-ssd环境的搭建总结前言 在unbutu中配置显卡环境,docker容器的使用,以及搭建caffe-ssd深度学习的环境,最后训练自己的数据得出模型是一件困难的事情。经过一个多星期不断调试环境反复修改,作者本人终于搭建好了容器和caffe-ssd的环境,并成功训练起来了自己的分类数据集,得到了其pth模型,并
2021-03-22 19:40:11
991
5
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅