修改YOLOv5的模型结构第二弹

本文介绍了如何在YOLOv5模型中添加自定义的C2模块,详细描述了修改common.py和yolo.py的过程。实验结果显示,尽管添加了C2模块,但训练结果反而变差,原因在于C2模块缺少后续的卷积处理。
部署运行你感兴趣的模型镜像

上节说到了通过修改YOLOv5的common.py来修改模型的结构,修改的是模块的内部结构,具体某些模块组织顺序等,如插入一个新的模型,则需要在yolo.py文件中修改

yolo.py文件

yolo.py中有几个主要的组成部分

parse_model函数

主要负责读取传入的–cfg配置指定的模型配置文件。例如经常使用的yolov5s.yaml,通过配置文件创建实际的模块对象,并将模块拼接起来。

Detect类

主要用来构建Detect层,将输入的feature map通过一个卷积操作和公式计算得到想要的shape,为后面计算损失或者NMS做准备

Model类

这个类实现的是整个模型的搭建。YOLOv5的作者在其中还加入了很多功能,例如:特征可视化、打印模型信息、TTA推理增强、融合Conv+Bn加速推理、模型搭载NMS功能、autoshape函数等等。

修改模型

任务

参考C3模块,创建一个C2模块,并插入到模型的第二、三层之间
C2模型
总模型结构
可以发现C2模块就是上一篇文章中,对模型C3模块的修改结果。

步骤

由于要插入一个新的模块,首先就是要在commm.py里仿造C3模块,新增一个可以创建C2模块的方法

class C3(nn.Module):
    # CSP Bottleneck with 3 convolutions
    def __init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):  # ch_in, ch_out, number, shortcut, groups, expansion
        super().__init__()
        c_ = int(c2 * e)  # hidden channels
        self.cv1 = Conv(c1, c_, 1, 1)
        self.cv2 = Conv(c1, c_, 1, 1)
        self.cv3 = Conv(2 * c_, c2, 1)  # optional act=FReLU(c2)
        self.m = nn.Sequential(*(Bottleneck(c_, c_, shortcut, g, e=1.0) for _ in range(n)))

    def forward(self, x):
        return self.cv3(torch.cat((self.m(self.cv1(x)), self.cv2(x)), 1))
    
class C2(nn.Module):
    # CSP Bottleneck with 3 convolutions
    def __init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):  # ch_in, ch_out, number, shortcut, groups, expansion
        super().__init__()
        c_1 = c2 // 2
        c_2 = c2 - c1  # hidden channels
        self.cv1 = Conv(c1, c_2, 1, 1)
        self.cv2 = Conv(c1, c_1, 1, 1)
        self.m = nn.Sequential(*(Bottleneck(c_2, c_2, shortcut, g, e=1.0) for _ in range(n)))

    def forward(self, x):
        return torch.cat((self.m(self.cv1(x)), self.cv2(x)), 1)

然后修改yolo.py中构建模型的部分,增加C2模块

def parse_model(d, ch):  # model_dict, input_channels(3)
    # Parse a YOLOv5 model.yaml dictionary
    LOGGER.info(f"\n{'':>3}{'from':>18}{'n':>3}{'params':>10}  {'module':<40}{'arguments':<30}")
    anchors, nc, gd, gw, act = d['anchors'], d['nc'], d['depth_multiple'], d['width_multiple'], d.get('activation')
    if act:
        Conv.default_act = eval(act)  # redefine default activation, i.e. Conv.default_act = nn.SiLU()
        LOGGER.info(f"{colorstr('activation:')} {act}")  # print
    na = (len(anchors[0]) // 2) if isinstance(anchors, list) else anchors  # number of anchors
    no = na * (nc + 5)  # number of outputs = anchors * (classes + 5)

    layers, save, c2 = [], [], ch[-1]  # layers, savelist, ch out
    for i, (f, n, m, args) in enumerate(d['backbone'] + d['head']):  # from, number, module, args
        m = eval(m) if isinstance(m, str) else m  # eval strings
        for j, a in enumerate(args):
            with contextlib.suppress(NameError):
                args[j] = eval(a) if isinstance(a, str) else a  # eval strings

        n = n_ = max(round(n * gd), 1) if n > 1 else n  # depth gain
        if m in {
                Conv, GhostConv, Bottleneck, GhostBottleneck, SPP, SPPF, DWConv, MixConv2d, Focus, CrossConv,
                BottleneckCSP, C3, C2, C3TR, C3SPP, C3Ghost, nn.ConvTranspose2d, DWConvTranspose2d, C3x}:
            c1, c2 = ch[f], args[0]
            if c2 != no:  # if not output
                c2 = make_divisible(c2 * gw, 8)

            args = [c1, c2, *args[1:]]
            if m in {BottleneckCSP, C3,C2, C3TR, C3Ghost, C3x}:
                args.insert(2, n)  # number of repeats
                n = 1
        elif m is nn.BatchNorm2d:
            args = [ch[f]]
        elif m is Concat:
            c2 = sum(ch[x] for x in f)
        # TODO: channel, gw, gd
        elif m in {Detect, Segment}:
            args.append([ch[x] for x in f])
            if isinstance(args[1], int):  # number of anchors
                args[1] = [list(range(args[1] * 2))] * len(f)
            if m is Segment:
                args[3] = make_divisible(args[3] * gw, 8)
        elif m is Contract:
            c2 = ch[f] * args[0] ** 2
        elif m is Expand:
            c2 = ch[f] // args[0] ** 2
        else:
            c2 = ch[f]

        m_ = nn.Sequential(*(m(*args) for _ in range(n))) if n > 1 else m(*args)  # module
        t = str(m)[8:-2].replace('__main__.', '')  # module type
        np = sum(x.numel() for x in m_.parameters())  # number params
        m_.i, m_.f, m_.type, m_.np = i, f, t, np  # attach index, 'from' index, type, number params
        LOGGER.info(f'{i:>3}{str(f):>18}{n_:>3}{np:10.0f}  {t:<40}{str(args):<30}')  # print
        save.extend(x % i for x in ([f] if isinstance(f, int) else f) if x != -1)  # append to savelist
        layers.append(m_)
        if i == 0:
            ch = []
        ch.append(c2)
    return nn.Sequential(*layers), sorted(save)

最后修改模型的配置文件,将yolov5s.yaml另存为yolov5s_aug.yaml并修改

# YOLOv5 v6.0 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Conv, [64, 6, 2, 2]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 3, C2, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 6, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 3, C3, [1024]],
   [-1, 1, SPPF, [1024, 5]],  # 9
  ]

如此改造就完成了,可以使用训练集训练一下当前的yolov5s_aug模型
训练的结果如下:
修改后的模型

对比没有修改前的模型训练结果

修改前模型
对比发现增加这层模块没有对整个模型带来好的结果,每种分类的检测结果都变得更差了,上篇文章也分析过,C2模块由于缺少了最后的卷积重排,会导致特征的表达变差。

根据经验,cat操作后面最好是经过全连接层或者卷积再提取一下特征,直接使用的效果比较差。

您可能感兴趣的与本文相关的镜像

Yolo-v5

Yolo-v5

Yolo

YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的Joseph Redmon 和Ali Farhadi 开发。 YOLO 于2015 年推出,因其高速和高精度而广受欢迎

<think>我们正在将Multi-Task-Facial(多任务面部任务)整合到YOLOv11模型和WIDERFACE数据集的训练中。YOLOv11是一个目标检测模型,而WIDERFACE是一个大规模人脸检测数据集。Multi-Task-Facial通常包括人脸检测、关键点定位、表情识别、属性识别等多个任务。目标:在YOLOv11模型的基础上,扩展为多任务模型,同时完成人脸检测(主任务)以及其他面部相关任务(如关键点检测、表情分类等)。步骤:1.**数据准备**:-WIDERFACE数据集主要用于人脸检测,它包含大量的人脸图像和边界框标注。但Multi-Task-Facial需要更多的标注信息(如关键点、表情、属性等)。因此,我们需要对WIDERFACE数据集进行补充标注,或者将WIDERFACE与其他包含多任务标注的数据集(如CelebA,AFLW等)合并使用。-数据格式统一:将多任务标注整合到一个统一的标注文件中(例如,每个图像对应一个标注文件,包含人脸框、关键点坐标、表情标签等)。2.**修改模型架构(YOLOv11)**:-YOLOv11本身是一个单任务模型(检测)。我们需要在其主干网络(backbone)之后添加多个任务特定的分支(heads)。-具体设计:-共享主干网络:使用YOLOv11的主干网络(如CSPDarknet)提取共享特征。-任务分支:-任务1:人脸检测分支(YOLOv11原有的检测头,输出边界框和置信度)。-任务2:人脸关键点检测分支(输出例如68个关键点的坐标)。-任务3:表情分类分支(输出表情类别概率)。-任务4:属性分类分支(如性别、年龄等,每个属性一个二分类或多分类输出)。-注意:每个分支可以是一个或多个卷积层。3.**损失函数**:-总损失是多任务损失的加权和:$$L_{total}=w_{det}\cdotL_{det}+w_{landmark}\cdotL_{landmark}+w_{expr}\cdotL_{expr}+w_{attr}\cdotL_{attr}$$-其中:-$L_{det}$:人脸检测损失,采用YOLOv11原有的损失(包括边界框坐标损失、置信度损失、分类损失)。-$L_{landmark}$:关键点损失,通常使用平滑L1损失或均方误差(MSE)。-$L_{expr}$:表情分类损失,使用交叉熵损失。-$L_{attr}$:属性分类损失,每个属性使用交叉熵损失,然后取平均。-权重选择:可以手动调整,也可以使用动态权重调整方法(如根据任务不确定性[^1])。4.**训练策略**:-联合训练:同时训练所有任务。-数据加载:在数据加载时,需要同时加载所有任务的标注。-训练技巧:-由于不同任务的学习难度和收敛速度不同,可以考虑任务式提前停止[^5]:当某个任务在验证集上性能饱和时,冻结该任务分支,继续训练其他任务。-梯度裁剪:避免不同任务梯度量级差异过大导致训练不稳定。-学习率调整:使用余弦退火等动态调整学习率。5.**评估**:-分别评估每个任务:-人脸检测:使用mAP(meanAveragePrecision)评估。-关键点检测:使用NME(NormalizedMeanError)评估。-表情识别:使用准确率(Accuracy)评估。-属性分类:使用准确率或F1分数评估。6.**推理优化**:-在推理时,我们可以选择只运行需要的任务分支。例如,如果只需要人脸检测,那么只需要运行检测分支;如果需要全部任务,则运行所有分支。关键挑战:-数据集:WIDERFACE没有提供除检测框以外的标注,因此需要额外标注或融合其他数据集。-模型复杂度:多任务模型会增加计算量和参数量,需要考虑模型轻量化或剪枝。代码结构示例(PyTorch伪代码):```pythonclassMultiTaskYOLO(nn.Module):def__init__(self,backbone,num_classes,num_landmarks,num_exprs,num_attrs):super().__init__()self.backbone=backbone#YOLOv11的主干#检测头(YOLO原有的检测头)self.det_head=YOLOHead(...)#关键点头(输出68个关键点,每个点2个坐标)self.landmark_head=nn.Sequential(nn.Conv2d(backbone_out_channels,256,3,padding=1),nn.ReLU(),nn.Conv2d(256,num_landmarks*2,1))#表情分类头(全局平均池化后接全连接层)self.expr_head=nn.Sequential(nn.AdaptiveAvgPool2d(1),nn.Flatten(),nn.Linear(backbone_out_channels,num_exprs))#属性分类头(可以多个属性共享一个头,也可以每个属性单独一个头)self.attr_head=nn.ModuleList([nn.Sequential(nn.AdaptiveAvgPool2d(1),nn.Flatten(),nn.Linear(backbone_out_channels,num_classes_attr[i]))foriinrange(num_attrs)])defforward(self,x):features=self.backbone(x)det_out=self.det_head(features)landmark_out=self.landmark_head(features)expr_out=self.expr_head(features)attr_outs=[head(features)forheadinself.attr_head]returndet_out,landmark_out,expr_out,attr_outs```训练循环中的损失计算示例:```python#假设每个任务的损失函数已经定义loss_det=det_criterion(det_pred,det_target)loss_landmark=landmark_criterion(landmark_pred,landmark_target)loss_expr=expr_criterion(expr_pred,expr_target)loss_attr=0foriinrange(num_attrs):loss_attr+=attr_criterion(attr_preds[i],attr_targets[:,i])loss_attr/=num_attrs#总损失,权重可以根据需要调整total_loss=w_det*loss_det+w_landmark*loss_landmark+w_expr*loss_expr+w_attr*loss_attr```注意事项:-在训练前,需要确保每个任务都有对应的标注数据。对于部分缺失标注的数据,可以采用掩码机制跳过该任务的损失计算。-由于WIDERFACE数据集规模很大,补充标注的工作量巨大,可以考虑使用迁移学习:先在完整标注的小数据集上预训练多任务模型,再用WIDERFACE的检测标注进行微调(此时其他任务分支的标注缺失,可以冻结这些分支,只训练检测分支)。引用说明:-动态权重调整(如根据任务不确定性)可参考[^1]。-任务式提前停止策略可参考[^5]。相关问题:1.如何为WIDERFACE数据集添加人脸关键点、表情等标注?2.多任务训练中,如何平衡不同任务之间的损失权重?3.在YOLOv11多任务模型中,如何优化推理速度?4.如何处理训练数据中部分任务标注缺失的情况?</think>### 在YOLOv11模型中结合WIDER FACE数据集实现Multi-Task-Facial训练的步骤 #### **1. 数据准备与标注转换** - **WIDER FACE数据集处理**: - 下载并解压WIDER FACE数据集(包含32,203张图像和393,703个人脸标注) - 转换标注格式为YOLO格式(归一化坐标): $$ x_{center} = \frac{x + w/2}{img_w}, \quad y_{center} = \frac{y + h/2}{img_h} $$ $$ w_{norm} = \frac{w}{img_w}, \quad h_{norm} = \frac{h}{img_h} $$ - 生成`train.txt`和`val.txt`文件列表 - **多任务标注扩展**: - 为WIDER FACE补充关键点/表情/属性标注(使用预训练模型自动标注或人工标注) - 创建多任务标注文件(每行格式): ``` image_path x1,y1,x2,y2,conf,landmark_x1,landmark_y1,...,expr_id,attr1,attr2,... ``` #### **2. 模型架构修改** - **主干网络共享**: ```python # YOLOv11主干网络(CSPDarknet) backbone = CSPDarknet(depth_multiple=1.0, width_multiple=1.0) ``` - **多任务分支扩展**: ```python # 检测分支(原始YOLO头) detect_head = Detect(nc=1) # 仅人脸检测,nc=1 # 关键点分支(68个点) landmark_head = nn.Sequential( Conv(1024, 256, 3), nn.Flatten(), nn.Linear(256*7*7, 136) # 68*2=136 ) # 表情分支(7类基本表情) expr_head = nn.Sequential( nn.AdaptiveAvgPool2d(1), nn.Flatten(), nn.Linear(1024, 7) ) ``` #### **3. 损失函数设计** - **多任务加权损失**: $$ \mathcal{L}_{total} = \lambda_{det}\mathcal{L}_{det} + \lambda_{landmark}\mathcal{L}_{landmark} + \lambda_{expr}\mathcal{L}_{expr} $$ 其中: - $\mathcal{L}_{det}$:YOLO检测损失(CIoU + 置信度)[^1] - $\mathcal{L}_{landmark}$:平滑L1关键点损失 - $\mathcal{L}_{expr}$:表情分类交叉熵损失 - **动态权重调整**(推荐): $$ \lambda_i = \frac{1}{2\sigma_i^2}, \quad \mathcal{L}_{total} = \sum_i \frac{\mathcal{L}_i}{\sigma_i^2} + \log \sigma_i $$ 通过可学习的$\sigma_i$自动平衡任务权重[^2] #### **4. 训练流程实现** 1. **数据加载**: ```python dataset = MultiTaskDataset( img_dir="WIDER_train/images", annot_file="multitask_annotations.txt", transforms=augmentations # 包含Mosaic, MixUp等 ) ``` 2. **训练循环**: ```python for imgs, targets in dataloader: # targets: [batch_idx, cls, box, landmarks, expr] det_out, landmark_out, expr_out = model(imgs) # 计算多任务损失 loss_det = compute_yolo_loss(det_out, targets[..., :6]) loss_landmark = smooth_l1(landmark_out, targets[..., 6:142]) loss_expr = F.cross_entropy(expr_out, targets[..., 142]) # 动态加权 total_loss = loss_det/(2*sigma_det**2) + loss_landmark/(2*sigma_landmark**2) + loss_expr/(2*sigma_expr**2) total_loss += torch.log(sigma_det*sigma_landmark*sigma_expr) total_loss.backward() optimizer.step() ``` #### **5. 关键训练技巧** - **渐进式训练**: 1. 第一阶段:仅训练检测分支(冻结其他分支) 2. 第二阶段:联合训练所有分支 3. 第三阶段:微调任务特定分支 - **梯度处理**: ```python # 梯度裁剪防止冲突 torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm=10.0) # 梯度归一化(可选) for param in model.parameters(): if param.grad is not None: param.grad.data = param.grad.data / (param.grad.data.norm() + 1e-8) ``` - **数据增强策略**: - 基础增强:随机裁剪、色彩抖动、旋转(±30°) - 高级增强:CutMix, GridMask - **关键点增强**:性形变(确保关键点同步变换) #### **6. 评估与验证** - **分任务评估指标**: | 任务 | 指标 | 说明 | |--------------|-----------------------|--------------------------| | 人脸检测 | mAP@0.5 | WIDER FACE官方评估标准 | | 关键点检测 | NME (Normalized Mean Error) | $$ \frac{1}{N}\sum_i \frac{\|pred_i - gt_i\|_2}{d_{interocular}} $$ | | 表情识别 | 准确率(Accuracy) | 7类表情分类准确率 | --- ### 部署优化建议 - **推理加速**: ```python # 仅启用必要分支 model.set_task('detection') # 仅运行检测头 detections = model(imgs) # 对检测结果运行其他任务 for bbox in detections: landmark = model.run_head('landmark', roi_crop(img, bbox)) ``` - **模型轻量化**: - 使用通道剪枝压缩共享主干网络 - 量化INT8推理(TensorRT部署) --- ### 相关问题 1. 如何在WIDER FACE数据集上自动生成多任务标注? 2. YOLOv11多任务训练中如何解决不同任务收敛速度不一致的问题? 3. 动态损失权重$\sigma$的初始化值应该如何设置? 4. 多任务模型中如何平衡检测精度与关键点精度? [^1]: 检测损失包含CIoU损失、置信度损失和分类损失,是人脸检测的基础 [^2]: 动态权重调整通过可学习的$\sigma$参数自动平衡多任务损失权重
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值