event-based camera相关知识基础了解(学习更新中)

事件驱动相机与神经拟态视觉

@event-based camera相关知识基础了解伴随我的学习进度,持续上传

一些常见的简称是什么意思

DVS :Dynamic Vision Sensor(动态视觉传感器)。借用《An Event-Driven Multi-Kernel Convolution
Processor Module for Event-Driven Vision Sensors》中的表述:Example Event-Driven sensors are: simple luminance to frequency transformation sensors [1], time-to-first event coding sensors [2]–[4], foveated sensors [5], [6], temporal contrast vision sensors [7]–[11], motion sensing and computation systems [12], [13], and spatial contrast sensors [9], [10], [14]–[16], among many others. Of special interest for very high-speed applications are the so-called “Dynamic Vision Sensors” (DVS), where each pixel autonomously computes the normalized time derivative of the sensed light and provides an output
event with its coordinate when this amount exceeds a
preset contrast [7], [8], [11]. Fig. 1 illustrates the operation of such sensor when observing a 7.5 KHz spiral on an analog oscilloscope operated in x-y mode and stimulated with two phase shifted sinusoids of decreasing amplitude.

解释:参考http://www.sohu.com/a/300758196_100007727
神经拟态视觉传感器使用基于事件驱动的方式来捕捉场景中的动态变化。与传统相机不同,神经拟态视觉传感器没有 “帧” 的概念。当现实场景中发生变化时,神经拟态视觉传感器会产生一些像素级的输出(即事件),一个事件具体包括(t, x, y, p),这里的 x, y 为事件在2D空间的像素坐标,t为事件的时间戳,p为事件的极性。事件的极性代表场景的亮度变化: 上升(positive) or 下降 (negative)【所以,有的文章说是两个颜色一红(黄)以蓝或者是两个状态+1和-1都是代表场景的变化,而《A low power,fully event-based gesture recognition system》中最开始是+1-1和0三种状态,最后+1-1好像汇合成一种,也就是总共还是两种状态??】。

LIF:Integrate-And-Fire Models(整合与激发神经元)

AER: address event processor vision sensors

基础知识

发展及改变

Kinect相机(我理解为体感相机,用于体感游戏等):微软开发,通过将光图案投射到物体上,然后对反射光进行感测和处理,以在传感器上的各个像素中估计场景深度。(通过对深度的感知感受动作,人体的形态)

较早(最早?)的event-based camera
DVS128:瑞士神经信息学研究所开发,像素128*128;仅当像素发生变化时记录。相比RGB相机,DVS是无框架的,异步的,并且只在变化时触发可以降低耗能。只显示变化的像素,降低数据带宽。

MC3D(Motion Contrast 3D):利用了DVS128相机模块,只对已经改变的部分场景进行激光扫描(内含激光线扫描仪),可以在强光照、物体间有反射或 强烈反射形成的反射面存在下工作。

好像国内研究event-based camera的人太少啦,欢迎大家入群交流

QQ:深度学习/event-based camera 950438576
为了便于大家交流,QQ群依然保留供大家交流;由于本人暂时不在做这个方向,群主已转让他人。

参考

event-camera发展:http://www.sohu.com/a/300758196_100007727

### 事件视觉技术原理 事件视觉(Event-based Vision)是一种基于异步传感器的新型视觉感知方式,其核心在于利用事件相机Event Camera)捕捉场景中的动态变化。与传统的帧式相机不同,事件相机以像素级的异步方式响应光照变化,并生成所谓的“事件流”数据。这种事件流由一系列时间戳标记的像素级亮度变化事件组成,而不是完整的图像帧。 事件相机的基本工作原理是基于像素的独立响应机制。每个像素独立检测光照强度的变化,当变化超过预设阈值时,该像素会生成一个事件。这些事件包含位置、时间戳以及亮度变化的极性(正或负)。由于事件相机仅在发生变化时产生数据,因此具有高时间分辨率、低延迟和高动态范围的特点[^5]。 事件相机的典型类型包括动态视觉传感器(DVS)、基于异步时间的图像传感器(ATIS)和动态主动像素视觉传感器(DAVIS)。DVS是最早发展的事件相机,仅记录亮度变化事件;ATIS增加了灰度信息捕获能力;DAVIS则结合了DVS和传统有源像素传感器(APS)的功能,可以同时输出事件流和标准图像帧。 ### 应用领域 事件视觉技术因其独特的数据采集方式,在多个领域展现出显著优势。 1. **高速运动捕捉**:事件相机具有微秒级的时间分辨率,适用于捕捉高速运动物体,如机器人运动控制、高速视觉反馈系统等[^1]。 2. **低延迟视觉系统**:事件流的异步特性使其在需要实时响应的应用中表现出色,例如自动驾驶中的障碍物检测、无人机导航等[^2]。 3. **高动态范围成像**:事件相机的动态范围可达120dB以上,远高于传统相机,因此在光照变化剧烈的环境中(如户外自动驾驶)具有明显优势。 4. **机器人视觉与SLAM**:事件视觉与SLAM(Simultaneous Localization and Mapping,同步定位与地图构建)结合,可提升机器人在动态环境中的感知能力,实现更精确的定位与建图[^2]。 5. **生物启发视觉系统**:事件相机的设计灵感来源于生物视觉系统,其异步响应机制与人眼视网膜相似,因此在类脑计算、神经形态视觉系统中也有广泛应用[^1]。 此外,事件视觉技术还在视频监控、增强现实(AR)、虚拟现实(VR)等方向展现出潜力。例如,通过事件流分析可以实现更高效的视频压缩与传输,提升AR/VR设备的交互响应速度[^4]。 ### 示例代码:事件流可视化 以下是一个简单的Python代码示例,用于读取并可视化事件流数据: ```python import numpy as np import matplotlib.pyplot as plt # 模拟事件流数据(x, y, t, polarity) events = np.random.randint(0, 255, (1000, 4)) events[:, 3] = np.random.choice([-1, 1], size=1000) # 可视化事件流 plt.figure(figsize=(10, 8)) for x, y, t, p in events: color = 'r' if p == 1 else 'b' plt.plot(x, y, color + 'o', markersize=2) plt.title('Event Stream Visualization') plt.xlabel('X Position') plt.ylabel('Y Position') plt.grid(True) plt.show() ``` 该代码生成了模拟的事件流数据,并根据事件的极性(正或负)使用不同颜色进行可视化。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值