HLG 1012 Catch that cow (广搜)

本文介绍了一种使用广度优先搜索(BFS)算法来解决牛追逃问题的方法。通过两种移动方式——行走和瞬移,算法计算了农民约翰追到逃牛所需的最短时间。

广度优先队列(BFS)----

链接:http://acm.hrbust.edu.cn/index.php?m=ProblemSet&a=showProblem&problem_id=1012


Farmer John has been informed of the location of a fugitive cow and wants to catch her immediately. He starts at a point N (0 ≤ N ≤ 100,000) on a number line and the cow is at a point K (0 ≤ K≤ 100,000) on the same number line. Farmer John has two modes of transportation: walking and teleporting.

* Walking: FJ can move from any point X to the points - 1 or + 1 in a single minute
* Teleporting: FJ can move from any point X to the point 2 × X in a single minute.

If the cow, unaware of its pursuit, does not move at all, how long does it take for Farmer John to retrieve it?

Sample Input :

5 17

100 100

Sample Output:

4

0


这个第一个代码我写的很具体,把广搜的每一个步骤,每一个过程,队列的五种操作都列的很清楚,下面这个广搜过程(BFS)函数可用来当做模板用 --- 如果觉得不错的话,第二个代码也提交了一次,写的比较抽象,不那么容易看懂,但是比较简洁;不过,对于不同的你来说,理解了这种方法,这种过程最重要; 最基本的广搜问题;

The Code Follows: 


#include <cstdio>
#include <cstdlib>
#include <cstring>
#include <iostream>

using namespace std;

const int MAX = 100001;
const int LEFT = 0;
const int RIGHT = 100000;
bool flag[MAX];

typedef struct queue_
{
    int q[MAX];
    int steps[MAX];
    int head, tail;
    void init()   //初始化队列;
    {
        head = tail = 0;
        memset(steps, 0, sizeof(steps));
    }

    void in(int element)  //入列;
    {
        q[tail++] = element;
    }

    int out()  //出列;
    {
        return q[head++];
    }

    bool empty()   //清空队列;
    {
        return (tail - head == 0);
    }
}queue;

queue Q;

inline bool inMap(int position)
{
   return (LEFT <= position && position <= RIGHT);
}

inline void func(queue& Q, bool flag[], int position, int stp)
{
   Q.in(position);
   Q.steps[position] = stp;
   flag[position] = true;
}

int BFS(queue& Q, int start, int target)
{
   Q.init();
   Q.in(start);
   memset(flag, false, sizeof(flag));
   flag[start] = true;
   while (!Q.empty()) {
      int tmp = Q.out();
      int stp = Q.steps[tmp];
      if (tmp == target) {
         return stp;
      }else {
         if (inMap(tmp+1) && !flag[tmp+1]) {
            func(Q, flag, tmp+1, stp+1);
         }
         if (inMap(tmp-1) && !flag[tmp-1]) {
            func(Q, flag, tmp-1, stp+1);
         }
         if (inMap(tmp*2) && !flag[tmp*2]) {
            func(Q, flag, tmp*2, stp+1);
         }
      }
   }
}

int main()
{
   int n, k;
   while (scanf("%d%d", &n, &k) != EOF) {
      printf("%d\n", BFS(Q, n, k));
   }
   return 0;
}

Methods II :


#include <iostream>
#include <cstdio>
#include <cstring>
#define MAXN 1000005
using namespace std;

typedef struct Node_ {
    int step, x;
}Node;

Node q[MAXN];

int s[3], v[MAXN];

int main() {
    int n, k;

    while(~scanf("%d%d", &n, &k)) {
        memset(v, 0, sizeof(v));
        memset(s, 0, sizeof(s));
        int rear = 0, front = 0, ii;
        int x1, x2, x3, flag = 0, ans = 0;
        q[rear].x = n;
        q[rear++].step = 0;
        v[n] = 1;

        while(front < rear) {
            ii = q[front].x;
            if(ii == k) {
                flag = 1;
                ans = q[front].step;
                break;
            }
            s[0]= ii + 1; s[1] = ii - 1; s[2] = ii*2;
            for(int i=0; i<3; i++) {
                if(s[i]>=0 && s[i]<=MAXN && !v[s[i]]) {
                    q[rear].x = s[i];
                    q[rear++].step = q[front].step + 1;
                    v[s[i]] = 1;
                }
            }
            front++;
        }
        if(flag) {
            printf("%d\n", ans);
        }
    }
}
后续解法待续。。。

一、数据采集层:多源人脸数据获取 该层负责从不同设备 / 渠道采集人脸原始数据,为后续模型训练与识别提供基础样本,核心功能包括: 1. 多设备适配采集 实时摄像头采集: 调用计算机内置摄像头(或外接 USB 摄像头),通过OpenCV的VideoCapture接口实时捕获视频流,支持手动触发 “拍照”(按指定快捷键如Space)或自动定时采集(如每 2 秒采集 1 张),采集时自动框选人脸区域(通过Haar级联分类器初步定位),确保样本聚焦人脸。 支持采集参数配置:可设置采集分辨率(如 640×480、1280×720)、图像格式(JPG/PNG)、单用户采集数量(如默认采集 20 张,确保样本多样性),采集过程中实时显示 “已采集数量 / 目标数量”,避免样本不足。 本地图像 / 视频导入: 支持批量导入本地人脸图像文件(支持 JPG、PNG、BMP 格式),自动过滤非图像文件;导入视频文件(MP4、AVI 格式)时,可按 “固定帧间隔”(如每 10 帧提取 1 张图像)或 “手动选择帧” 提取人脸样本,适用于无实时摄像头场景。 数据集对接: 支持接入公开人脸数据集(如 LFW、ORL),通过预设脚本自动读取数据集目录结构(按 “用户 ID - 样本图像” 分类),快速构建训练样本库,无需手动采集,降低系统开发与测试成本。 2. 采集过程辅助功能 人脸有效性校验:采集时通过OpenCV的Haar级联分类器(或MTCNN轻量级模型)实时检测图像中是否包含人脸,若未检测到人脸(如遮挡、侧脸角度过大),则弹窗提示 “未识别到人脸,请调整姿态”,避免无效样本存入。 样本标签管理:采集时需为每个样本绑定 “用户标签”(如姓名、ID 号),支持手动输入标签或从 Excel 名单批量导入标签(按 “标签 - 采集数量” 对应),采集完成后自动按 “标签 - 序号” 命名文件(如 “张三
YUV颜色空间与HLG(Hybrid Log-Gamma)高动态范围技术在视频处理中具有一定的协同作用。YUV是一种将图像或视频信号分解为亮度(Y)和色度(U、V)分量的颜色空间。这种分离有助于在传输和压缩过程中优化亮度和色度信息的处理,因为人眼对亮度变化的敏感度高于对色度变化的敏感度。因此,YUV格式被广泛应用于视频编码和广播系统中,如H.264、HEVC等标准[^1]。 HLG是一种高动态范围(HDR)技术,旨在提供更宽的亮度范围,从而增强图像的对比度和细节表现力。与传统的SDR(Standard Dynamic Range)相比,HLG能够呈现更真实的亮部和暗部细节,使图像看起来更加生动和自然。HLG技术通过使用一种特殊的伽玛曲线(Log-Gamma),能够在不增加额外元数据的情况下实现HDR效果,这使得它特别适合于实时广播和视频传输[^2]。 在实际应用中,YUV颜色空间与HLG技术可以结合使用以提高视频的质量。例如,在HDR视频编码过程中,视频信号通常首先被转换为YUV颜色空间,其中亮度分量(Y)可以应用HLG技术来扩展动态范围,而色度分量(U、V)则可以根据需要进行适当的处理和压缩。这种方法不仅能够保持视频的高质量,还能有效地减少数据传输所需的带宽[^1]。 此外,由于HLG技术不需要额外的元数据,它与现有的视频传输和接收设备兼容性更好。这意味着,在使用YUV颜色空间进行视频处理时,通过引入HLG技术,可以在不显著改变现有基础设施的情况下实现HDR视频的制作和播放。 综上所述,YUV颜色空间与HLG技术在视频处理中的结合,不仅能够提升视频的视觉效果,还能够适应当前视频传输和接收设备的要求,为用户提供更加优质的观看体验。 ```python # 示例代码:假设我们有一个函数用于转换视频信号到YUV颜色空间并应用HLG技术 def convert_to_YUV_and_apply_HLG(video_signal): # 转换视频信号到YUV颜色空间 yuv_video = convert_to_YUV(video_signal) # 应用HLG技术到亮度分量 hlg_yuv_video = apply_HLG(yuv_video['Y']) # 合并处理后的亮度分量与未处理的色度分量 final_video = merge_YUV(hlg_yuv_video, yuv_video['U'], yuv_video['V']) return final_video # 假设的转换函数 def convert_to_YUV(signal): # 实现RGB到YUV转换逻辑 pass # 假设的应用HLG函数 def apply_HLG(y_component): # 实现HLG技术到亮度分量 pass # 假设的合并YUV分量函数 def merge_YUV(y, u, v): # 合并YUV分量形成最终视频 pass ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值