自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 批量把labelme生成的json文件转换成png图片(本人亲测成功!)

在做一些异常检测模型任务时,需要批量把labelme生成的json文件转换成png图片,在这里把代码共享出来,大家可以需要时就可以拿来用哦!要是对大家有帮助,我就很开心!

2024-09-02 17:33:42 1053 1

原创 一文搞懂多尺度特征对齐(优缺点和潜在风险)

在处理图像时,模型通常会在不同的尺度(大小)上提取特征。比如,在卷积神经网络中,较低层的特征图捕捉到的是细节信息(如边缘),而较高层的特征图则捕捉到的是更高级别的抽象信息(如物体的形状)。这些特征图在不同层次上有不同的分辨率和尺度。多尺度特征对齐的关键在于将来自不同尺度的特征图调整到相同的尺寸和空间位置,这样它们才能被有效地结合在一起,用于生成更精确的图像或特征表示。通过这种方式,模型能够利用不同尺度上的信息来提高重构的质量和效果。

2024-09-02 13:48:39 4845

原创 Relu比Sigmoid使用多的原因???(小白易懂)

ReLU 计算速度快:因为它只需进行一次简单的比较和最大值操作,计算复杂度较低(常数时间复杂度)。Sigmoid 计算速度慢:因为它涉及指数运算和后续的加法、除法操作,这些计算步骤比 ReLU 要复杂得多,计算复杂度较高。在神经网络中,尤其是在处理大规模数据时,ReLU 的这种计算效率优势会显著提升整体训练和推理速度。Sigmoid 函数的主要问题是梯度消失,这使得深层网络的训练变得很慢。ReLU 函数通过在正数部分保持稳定的导数,避免了梯度消失的问题,使得深层网络训练更高效。ReLU 函数。

2024-08-27 15:10:06 1701

原创 DETR为什么不需要NMS后处理???

(Detection Transformer)是一种基于Transformer的目标检测模型,它与传统的目标检测方法相比,采用了不同的处理流程。传统的目标检测算法(如YOLO、SSD、Faster R-CNN等)通常需要使用NMS(非极大值抑制,Non-Maximum Suppression)来去除冗余的边界框,而DETR则不需要这种后处理步骤。

2024-08-27 14:22:01 1073

原创 随机森林(Random Forest)VS 提升树(Boosting Trees)

随机森林(Random Forest)VS 提升树(Boosting Trees)

2024-08-23 11:17:30 1319

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除