计算机视觉
文章平均质量分 89
计算机视觉
江太翁
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Pytorch Transformer
Transformer 模型是一种基于自注意力机制(Self-Attention)的深度学习架构,彻底革新了自然语言处理(NLP)、计算机视觉(CV)等序列数据处理领域。其核心设计摒弃了传统循环神经网络(RNN)的顺序依赖性,实现了高效并行计算与长距离依赖捕捉能力。原创 2025-06-30 01:01:53 · 1105 阅读 · 0 评论 -
yolov10训练自己的数据集
1 图片样本数据集包含300张图片样本,训练集210张,验证集60张,测试集30张。2 标注文件。原创 2025-06-25 01:17:49 · 679 阅读 · 0 评论 -
关于train.py、val.py和predict.py
以下是关于train.pyval.py和predict.py。原创 2025-06-25 01:04:54 · 596 阅读 · 0 评论 -
Yolov10
关联问题换一批在过去几年中,YOLO系列模型已成为实时目标检测领域的主导范式,这得益于它们在计算成本和检测性能之间的有效平衡。研究行人探索了YOLOs的架构设计、优化目标、数据增强策略等,取得了显著的进展。然而,对非最大值抑制(NMS)的后处理依赖阻碍了YOLOs的端到端部署,并不利影响推理延迟。此外,YOLOs中各种组件的设计缺乏全面彻底的检查,导致明显的计算冗余并限制了模型的能力。这导致了次优的效率,同时存在相当大的性能提升潜力。转载 2025-06-24 22:59:26 · 62 阅读 · 0 评论 -
Pytorch学习
。原创 2025-03-11 20:57:43 · 842 阅读 · 0 评论 -
机器学习 神经网络(BP)
前向传播是神经网络从输入数据到输出结果的核心计算流程,通过逐层传递和变换数据实现预测功能损失函数(Loss Function)是衡量模型预测值与真实值之间差异的函数,通过最小化损失值优化模型参数,提升预测精度。其本质是量化预测误差,并作为模型训练的核心优化目标。每个批次的训练数据送入模型后,通过前向传播输出预测值,然后损失函数会计算出预测值和真实值之间的差异值,也就是损失值。原创 2025-03-02 09:48:39 · 136 阅读 · 0 评论 -
常见激活函数示意图
它保留了 step 函数的生物学启发(只有输入超出阈值时神经元才激活),不过当输入为正的时候,导数不为零,从而允许基于梯度的学习(尽管在 x=0 的时候,导数是未定义的)。然而,当输入为负值的时候,ReLU 的学习速度可能会变得很慢,甚至使神经元直接无效,因为此时输入小于零而梯度为零,从而其权重无法得到更新,在剩下的训练过程中会一直保持静默。它是完全可微分的,反对称,对称中心在原点。经典(以及广泛使用的)ReLU 激活函数的变体,带泄露修正线性单元(Leaky ReLU)的输出对负值输入有很小的坡度。原创 2025-03-02 09:47:23 · 951 阅读 · 0 评论
分享