YOLO V8-Pose 【批量图片推理】 推理详解及部署实现

前言

在实际处理过程中,我们使用YOLO V8进行推理时,通常会针对一张图片进行推理。如果需要对多张图片进行推理,则可以通过一个循环来实现对图片逐张进行推理。

单张图片推理时,需要注意图片的尺寸必须是32的倍数,否则可能导致推理失败。在下面的示例中,我们展示了如何使用PyTorch和Ultralytics库进行单张图片的推理:

import torch
from ultralytics import YOLO

# Load a pretrained YOLOv8n model
model = YOLO('yolov8n-pose.pt')

# Create a random torch tensor of BCHW shape (1, 3, 640, 640) with values in range [0, 1] and type float32
source = torch.rand(1, 3, 640, 640, dtype=torch.float32)

# Run inference on the source
results = model(source)  # list of Results objects

批量图片推理时,也需要注意图片的尺寸必须是32的倍数。在下面的示例中,我们展示了如何使用PyTorch和Ultralytics库进行多张图片的批量推理:

import torch
from ultralytics import YOLO

# Load a pretrained YOLOv8n model
model = YOLO('yolov8n-pose.pt')

# Create a random torch tensor of BCHW shape (1, 3, 640, 640) with values in range [0, 1] and type float32
source = torch.rand(4, 3, 640, 640, dtype=torch.float32)

# Run inference on the source
results = model(source)  # list of Results objects

需要注意的是,在批量推理时,虽然一次推理了多张图片,但实际处理方式仍然是通过循环进行的。在下面的文章中,我们将介绍如何使用更高效的方式进行批量推理,以获得更快的推理速度和更好的性能。

下面我们介绍如何将【单张图片推理】检测代码给修改成 【批量图片推理】代码,进行批量推理。

一、批量推理的前处理

原始代码

@staticmethod
def letterbox(im, new_shape=(640, 640), color=(114, 114, 114), scaleup=True, stride=32):
    # Resize and pad image while meeting stride-multiple constraints
    shape = im.shape[:2]  # current shape [height, width]
    if isinstance(new_shape, int):
        new_shape = (new_shape, new_shape)

    # Scale ratio (new / old)
    r = min(new_shape[0] / shape[0], new_shape[1] / shape[1])
    if not scaleup:  # only scale down, do not scale up (for better val mAP)
        r = min(r, 1.0)

    # Compute padding
    ratio = r, r  # width, height ratios
    new_unpad = int(round(shape[1] * r)), int(round(shape[0] * r))
    dw, dh = new_shape[1] - new_unpad[0], new_shape[0] - new_unpad[1]  # wh padding
    # minimum rectangle
    dw, dh = np.mod(dw, stride), np.mod(dh, stride)  # wh padding
    dw /= 2  # divide padding into 2 sides
    dh /= 2

    if shape[::-1] != new_unpad:  # resize
        im = cv2.resize(im, new_unpad, interpolation=cv2.INTER_LINEAR)

    top, bottom = int(round(dh - 0.1)), int(round(dh + 0.1))
    left, right = int(round(dw - 0.1)), int(round(dw + 0.1))
    im = cv2.copyMakeBorder(im, top, bottom, left, right, cv2.BORDER_CONSTANT, value=color)  # add border
    return im, ratio, (dw, dh)

def precess_image(self, img_src, img_size, half, device):
    # Padded resize
    img = self.letterbox(img_src, img_size)[0]
    # Convert
    img = img.transpose((2, 0, 1))[::-1]  # HWC to CHW, BGR to RGB
    img = np.ascontiguousarray(img)
    img = torch.from_numpy(img).to(device)

    img = img.half() if half else img.float()  # uint8 to fp16/32
    img = img / 255  # 0 - 255 to 0.0 - 1.0
    if len(img.shape) == 3:
        img = img[None]  # expand for batch dim
    return img

处理方式

我们要先知道在原始处理方式中是如何操作的:

它包含以下步骤:

  • self.pre_transform:即 letterbox 添加灰条

  • img.transpose((2, 0, 1))[::-1]:HWC to CHW, BGR to RGB

  • torch.from_numpy:to Tensor

  • img.float() :uint8 to fp32

  • im /= 255:除以 255,归一化

  • img[None]:增加维度

在上述处理过程中我们最主要进行修改的就是 self.pre_transform 里面的操作,其余部分都是可以直接进行批量操作的。

letterbox 中最主要的操作就是下面两个函数,使用 opencv 进行实现的。我们要进行批量操作,那么 opencv 库是不能实现的,进行批量操作一般会用 广播机制 或者 tensor操作 来实现。

im = cv2.resize(im, new_unpad, interpolation=cv2.INTER_LINEAR)
im = cv2.copyMakeBorder(im, top, bottom, left, right, cv2.BORDER_CONSTANT, value=color) 

由于最终输入到模型里面的是一个tensor,所以在这里我们使用 tensor的操作方式进行实现。

尺寸修改

原始方法:
im = cv2.resize(im, new_unpad, interpolation=cv2.INTER_LINEAR)

现在方法:
resized_tensor = F.interpolate(image_tensor, size=new_unpad, mode='bilinear', align_corners=False)

两者的实现效果:

原始方法:(1176, 1956, 3) --》(385, 640, 3)

现在方法:(1176, 1956, 3) --》(385, 640, 3)

添加边框

原始方式:
im = cv2.copyMakeBorder(im, top, bottom, left, right, cv2.BORDER_CONSTANT, value=color) 

现在方法:
padded_tensor = F.pad(resized_tensor, (top, bottom, left, right), mode='constant', value=padding_value)

两者的实现效果:

原始方法:(385, 640, 3) --》(416, 640, 3)

现在方法:(385, 640, 3) --》(416, 640, 3)

修改后的代码

def tensor_process(self, image_cv):
    img_shape = image_cv.shape[1:]
    new_shape = [640, 640]
    r = min(new_shape[0] / img_shape[0], new_shape[1] / img_shape[1])
    # Compute padding
    new_unpad = int(round(img_shape[0] * r)), int(round(img_shape[1] * r))

    dw, dh = new_shape[1] - new_unpad[0], new_shape[0] - new_unpad[1]  # wh padding
    dw, dh = np.mod(dw, 32), np.mod(dh, 32)  # wh padding
    dw /= 2  # divide padding into 2 sides
    dh /= 2

    top, bottom = int(round(dh - 0.1)), int(round(dh + 0.1))
    left, right = int(round(dw - 0.1)), int(round(dw + 0.1))

    padding_value = 114

    image_tensor = torch.from_numpy(image_cv).permute(0, 3, 1, 2).float()
    image_tensor = image_tensor.to(self.device)

    resized_tensor = F.interpolate(image_tensor, size=new_unpad, mode='bilinear', align_corners=False)

    padded_tensor = F.pad(resized_tensor, (top, bottom, left, right), mode='constant', value=padding_value)
    infer_tensor = padded_tensor / 255.0

    return infer_tensor

二、批量推理的后处理

原始代码

def non_max_suppression(
    prediction,
    conf_thres=0.25,
    iou_thres=0.45,
    classes=None,
    agnostic=False,
    multi_label=False,
    labels=(),
    max_det=300,
    nc=0,  # number of classes (optional)
    max_time_img=0.05,
    max_nms=30000,
    max_wh=7680,
 
<think>好的,用户想了解如何使用YOLOv8进行姿态估计,特别是关于YOLOv8-Pose实现和使用。首先,我需要回忆YOLOv8的相关信息,尤其是姿态估计部分。YOLOv8是Ultralytics公司推出的最新版本,支持多种任务,包括目标检测、实例分割、姿态估计等。而YOLOv8-Pose就是专门用于姿态估计的模型。 用户提到参考的站内引用链接是关于YOLOv8-Pose关键点检测的专栏,这可能意味着他们已经在优快云上看到过相关的中文教程,但需要更详细的实现和使用说明。需要确保回答结构清晰,分步骤说明,并且符合用户的中文需求。 首先,我应该介绍YOLOv8-Pose的基本概念,比如它基于YOLO架构,能够实时检测人体关键点,比如17个COCO格式的关键点。然后,安装步骤是必要的,需要指导用户安装Ultralytics库,可能通过pip安装。 接下来是使用预训练模型进行推理,这里需要给出具体的Python代码示例,展示如何加载模型、进行预测并可视化结果。同时,要提到关键点的数据结构,比如每个关键点的坐标和置信度,方便用户后续处理。 然后,自定义训练部分也很重要。用户可能需要在自己的数据集上训练模型,所以需要说明数据集的格式要求,比如YOLO格式的标注文件结构,以及如何配置数据集yaml文件。训练代码示例也是必须的,包括加载模型、训练参数等。 可视化部分,用户可能需要将检测结果保存为图片或视频,这里需要给出绘制关键点和骨骼连接的代码示例,可能使用OpenCV或者matplotlib库。同时,可以提到Ultralytics内置的可视化功能,方便用户快速查看结果。 在注意事项里,需要提醒用户硬件要求,比如GPU加速,数据标注的准确性,以及参数调优的重要性。这些都能帮助用户避免常见的问题。 最后,相关问题的部分需要生成几个可能的问题,比如性能优化、部署到移动端、标注工具选择等,帮助用户进一步探索。 需要确保所有数学表达式,如果有的话,使用正确的LaTeX格式,但在这个主题下可能数学内容不多。代码块要正确格式化,使用三个反引号包裹,并注明语言。引用标识要添加到参考链接处,但用户提供的引用链接是关于YOLOv8-Pose的专栏,所以在回答中合适的位置插入[^1]。 检查所有步骤是否覆盖了实现和使用的关键点,确保信息准确,特别是代码部分是否正确,比如导入的模块、函数名是否有变化。例如,YOLO模型的加载是否正确,predict方法的参数是否最新。可能需要查阅最新的Ultralytics文档确认细节,但根据记忆,代码示例应该是正确的。 还要注意使用中文回答,避免专业术语错误,保持口语化但专业。最后,确保相关问题部分的问题有针对性,能够引导用户深入学习和解决问题。</think>### YOLOv8-Pose姿态估计实现与使用指南 YOLOv8-Pose是基于YOLOv8架构优化的姿态估计模型,能够实时检测人体关键点(如17个COCO格式关键点),适用于运动分析、安防监控等场景[^1]。 #### 一、环境安装 ```bash pip install ultralytics # 安装Ultralytics官方库 ``` #### 二、使用预训练模型推理 ```python from ultralytics import YOLO # 加载预训练模型 model = YOLO('yolov8n-pose.pt') # 可选模型:yolov8{s/m/l/x}-pose # 执行推理 results = model.predict('input_image.jpg', save=True, conf=0.5) # 解析关键点数据 for result in results: keypoints = result.keypoints # 形状为(N,17,3), 包含(x,y,置信度) print(f"检测到{len(keypoints)}个人的关键点") ``` #### 三、自定义训练 1. **数据集准备** - 标注格式要求: ``` class x_center y_center width height px1 py1 c1 px2 py2 c2 ... px17 py17 c17 ``` - 配置文件`data.yaml`示例: ```yaml train: ./train/images val: ./val/images nc: 1 # 类别数(人体检测) kpt_shape: [17, 3] # 关键点维度 ``` 2. **启动训练** ```python model = YOLO('yolov8n-pose.yaml') # 从配置文件初始化 model.train(data='data.yaml', epochs=100, imgsz=640, batch=16) ``` #### 四、结果可视化 ```python # 绘制带关键点的结果 result = model('input_image.jpg')[0] plot = result.plot() # 自动绘制检测框与关键点 plot.show() # 使用matplotlib显示 ``` #### 五、关键应用参数 | 参数 | 说明 | 推荐值 | |------|------|--------| | `conf` | 检测置信度阈值 | 0.25-0.5 | | `iou` | 交并比阈值 | 0.7 | | `kpt_radius` | 关键点绘制半径 | 5 | | `line_width` | 骨骼连接线宽 | 3 | #### 注意事项 1. GPU加速建议使用NVIDIA显卡(CUDA环境) 2. 关键点检测精度高度依赖标注质量 3. 复杂场景需调整`conf`和`iou`参数平衡精度与召回率
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

牧锦程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值