润乾V4 自动计算中的位移坐标

在使用润乾V4做填报表的时候  
由于有些数据的扩展的,但是自动计算的时候,取的是扩展单元格中的某一格
而且数据是交叉扩展的,所以这里就需要使用到位移坐标去处理此类数据



如上图所示
两个单元格分别扩展 B3单元格的值为A3B2所扩展值的和 也是扩展格
那么如果要求扩展出来的后3格的和,就需要用到位移坐标。
B3中与A3扩展格对应的B2格的第二个扩展值  即为B3[A3;B2:2]



### 如何在YOLO目标检测中提取物体的坐标 在YOLO目标检测框架下,为了从预测结果中提取物体的具体坐标信息,通常需要解析网络输出层的数据。YOLO将输入图像划分为\( S \times S \)个网格,每个网格负责预测多个边界框及其对应的置信度分数和类别概率[^1]。 对于每一个边界框,其位置由中心点\((b_x, b_y)\),宽度\(b_w\)以及高度\(b_h\)表示。这些值都是相对于整个图像尺寸的比例数值,在实际应用时需转换为绝对像素单位: \[ center\_x = (grid\_index\_x + sigmoid(b_x)) * image\_width / grid\_size \\ center\_y = (grid\_index\_y + sigmoid(b_y)) * image\_height / grid\_size \\ box\_w = e^{b_w} * anchor\_width \\ box\_h = e^{b_h} * anchor\_height \] 其中,`sigmoid()`函数用于确保偏移量落在0至1之间;`anchor_width`和`anchor_height`代表预设锚点大小,它们是在训练阶段根据数据集中常见物体尺度统计得出的一组固定比例尺[^2]。 下面给出一段Python代码片段展示如何处理YOLOv3模型返回的结果,并从中抽取感兴趣区域(ROI)的信息: ```python import torch def get_bounding_boxes(outputs, conf_threshold=0.5): """ 解析YOLO v3/v4/v5 输出张量并过滤掉低置信度的对象 参数: outputs -- 模型前向传播后的原始输出列表 conf_threshold -- 置信度阈值,默认设置为0.5 返回: boxes -- 符合条件的目标边框列表 [(xmin,ymin,xmax,ymax)] 注意这里的坐标已经映射回原图的真实像素值 """ all_detections = [] for output in outputs: # 遍历不同尺度下的特征图 batch_size, num_anchors_per_grid, height, width = output.shape[:4] # Reshape the tensor to make it easier to work with. reshaped_output = ( output.permute(0, 2, 3, 1).contiguous().view(batch_size, height*width*num_anchors_per_grid, -1) ) box_centers = reshaped_output[:, :, :2].sigmoid() # 中心点相对位移 box_sizes = reshaped_output[:, :, 2:4].exp() # 宽高缩放因子 anchors = ... # 加载预先定义好的先验框尺寸 stride = input_image_size // max(height, width) # 计算当前feature map对应的实际步长 # 将预测变换为空间坐标的格式 xywh_boxes = torch.cat([ ((box_centers + offset_tensor) * stride), # 调整中心点到全局坐标系 (box_sizes * anchors) # 应用宽高的指数调整 ], dim=-1) ... filtered_indices = non_max_suppression(xywh_boxes, scores, iou_threshold=iou_thresh) detections = xywh_boxes[filtered_indices] all_detections.append(detections.cpu().numpy()) return all_detections if __name__ == '__main__': model = load_pretrained_model() img = preprocess_input(image_path) predictions = model(img)[0] bounding_boxes = get_bounding_boxes(predictions) ``` 上述代码展示了如何基于PyTorch实现YOLO系列模型输出解析的过程,最终获得的是经过筛选后保留下来的高质量候选框集合。需要注意的是,这里省略了一些细节部分如加载预训练权重、图片预处理步骤等,完整的工程实践还需要考虑更多因素[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值