基于scanner的单视频处理

本文介绍了一种基于视频的目标检测方法,通过背景差分、下采样和并行处理等技术,实现了对视频中人脸的高效检测。并通过特征向量比对,判断特定人物是否出现在视频中。
'''
# 假设目标 检测张三有没有来  需要做的操作是将含有人的帧提取出来
# 这个demo是单视频分段处理,
# 多视频处理可以在基础上进行修改

# 进展—这两天主要工作:
	熟悉scanner的编程框架以及数据流处理过程,了解对应操作的数据类型
	下列代码基于scanner的相关提示方法编写

# 下一步计划:
       还有部分逻辑没理顺,这部分代码还有部分问题需要修改
	   完成多视频并行处理的代码
'''
from scipy.io.matlab.streams import FileStream

import scannerpy as sp
import scannertools.imgproc
import scannertools.face_detection
import scannertools.vis

from sklearn.metrics.pairwise import cosine_similarity

def main():


    # Scanner启动必须建立客户端连接
    sc = sp.Client()

    # 使用数据流图计算,将视频转换为input_stream流
    input_stream = sp.NamedVideoStream(sc, 'camera_1', path='camera_1.mp4')

    # 利用io操作将数据流读取为table,行为帧,列为帧类型(如mp4,h265类型)列表存储起来
    input_frame = sc.io.Input([input_stream])

    # 使用ops自带操作进行下采样压缩视频帧,并且按照视频一致性,进行步长3重建数据流 转换为stride_frame
    # 假设一个30fps的10mins视频,有18000帧,处理后还有6000帧
    resize_frame = sc.ops.Reszie(frame = input_frame, width = 640, height = 480)
    stride_frame = sc.ops.Stride(frame = resize_frame, [3])

    # 为了便于并行处理,可以将原视频帧分割,每3000帧一组

    slice_partition = sc.streams.Slice(stride_frame, partitions=[(0,3000),(3001,6000)])

    # 借助背景差分进行处理视频帧(检测目标)
    mask_frame = sc.ops.BackgroundSubtraction(frame = slice_partition,
                                              alpha = 0.02, threshold = 0.05,
                                              bounded_state = 60)
	# 聚合slice
    unslice_frame = sc.streams.Unslice(mask_frame)
    frame = sc.io.Input([unslice_frame])


    # 建立输出流,并进行run计算,此时已经完成人脸检测
    output_stream = sp.NamedVideoStream(sc, 'output_stream')
    output_frame = sc.io.Output(unslice_frame, [output_stream])
    sc.run(output_frame, sp.PerfParams.estimate())


    # output_stream代表 所有需要检测的人的帧

    # 读取目标帧
    obj_frame = FileStream(sc, paths='image1.png')
    obj_vector = DNN(obj_frame)  # 调用现有模型即可

    people_frames = output_stream.load() # 流类型 其实是用列表存储
    # 获得包含face的帧
    face_contain = []
    for i in people_frames:
        feature_vector = DNN(people_frames[i])
        face_contain[i] = cosine_similarity(feature_vector, obj_vector)

    if min(face_contain) < 0.005:
        print("张三来学校了")
    else:
        print("张三没来")
    # 最后删除创建的流
    input_stream.delete(sc)
    output_stream.delete(sc)

if __name__ == '__main__':
    main()

 

内容概要:本文是一份针对2025年中国企业品牌传播环境撰写的《全网媒体发稿白皮书》,聚焦企业媒体发稿的策略制定、渠道选择与效果评估难题。通过分析当前企业面临的资源分散、内容同质、效果难量化等核心痛点,系统性地介绍了新闻媒体、央媒、地方官媒和自媒体四大渠道的特点与适用场景,并深度融合“传声港”AI驱动的新媒体平台能力,提出“策略+工具+落地”的一体化解决方案。白皮书详细阐述了传声港在资源整合、AI智能匹配、舆情监测、合规审核及全链路效果追踪方面的技术优势,构建了涵盖曝光、互动、转化与品牌影响力的多维评估体系,并通过快消、科技、零售等行业的实战案例验证其有效性。最后,提出了按企业发展阶段和营销节点定制的媒体组合策略,强调本土化传播与政府关系协同的重要性,助力企业实现品牌声量与实际转化的双重增长。; 适合人群:企业市场部负责人、品牌方管理者、公关传播从业者及从事数字营销的相关人员,尤其适用于初创期至成熟期不同发展阶段的企业决策者。; 使用场景及目标:①帮助企业科学制定媒体发稿策略,优化预算分配;②解决渠道对接繁琐、投放不精准、效果不可衡量等问题;③指导企业在重大营销节点(如春节、双11)开展高效传播;④提升品牌权威性、区域渗透力与危机应对能力; 阅读建议:建议结合自身企业所处阶段和发展目标,参考文中提供的“传声港服务组合”与“预算分配建议”进行策略匹配,同时重视AI工具在投放、监测与优化中的实际应用,定期复盘数据以实现持续迭代。
先展示下效果 https://pan.quark.cn/s/987bb7a43dd9 VeighNa - By Traders, For Traders, AI-Powered. Want to read this in english ? Go here VeighNa是一套基于Python的开源量化交易系统开发框架,在开源社区持续不断的贡献下一步步成长为多功能量化交易平台,自发布以来已经积累了众多来自金融机构或相关领域的用户,包括私募基金、证券公司、期货公司等。 在使用VeighNa进行二次开发(策略、模块等)的过程中有任何疑问,请查看VeighNa项目文档,如果无法解决请前往官方社区论坛的【提问求助】板块寻求帮助,也欢迎在【经验分享】板块分享你的使用心得! 想要获取更多关于VeighNa的资讯信息? 请扫描下方二维码添加小助手加入【VeighNa社区交流微信群】: AI-Powered VeighNa发布十周年之际正式推出4.0版本,重磅新增面向AI量化策略的vnpy.alpha模块,为专业量化交易员提供一站式多因子机器学习(ML)策略开发、投研和实盘交易解决方案: :bar_chart: dataset:因子特征工程 * 专为ML算法训练优化设计,支持高效批量特征计算与处理 * 内置丰富的因子特征表达式计算引擎,实现快速一键生成训练数据 * Alpha 158:源于微软Qlib项目的股票市场特征集合,涵盖K线形态、价格趋势、时序波动等多维度量化因子 :bulb: model:预测模型训练 * 提供标准化的ML模型开发模板,大幅简化模型构建与训练流程 * 统一API接口设计,支持无缝切换不同算法进行性能对比测试 * 集成多种主流机器学习算法: * Lass...
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值