自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5295)
  • 资源 (35)
  • 收藏
  • 关注

转载 从3dgs的ply生成mesh有哪些路径和已有的算法实现?

从3dgs的ply生成mesh有哪些路径和已有的算法实现?欢迎小伙伴在评论区留言讨论。「3D视觉从入门到精通」

2025-04-01 07:04:22 5

转载 陀螺仪总漂移?从卡尔曼滤波5大公式到PX4实战的终极指南

常见的异常包括传感器数据断联,传感器数据值无效,传感器数据值有效但是不准确等,这些异常处理往往在算法之外单独设计逻辑处理。对于加速度计,GPS,光流,TOF等测量加速度,速度与位置的传感器,安装位置往往不在飞机重心,旋转将带来额外的测量误差,需要进行精确的。数据融合使用合适的算法,将各种传感器的数据映射为飞机的位置,速度与姿态。传感器模型,数字滤波器,姿态变换,刚体运动,卡尔曼滤波等众多基础知识,为理解多传感器融合奠定基础。在缺乏良好数据预处理时,估计器的参数调节变得困难,融合的精度也将降低。

2025-03-30 00:01:51 17

转载 什么是3D视觉领域的黄金三角?

即可免费领取计算机视觉精品视频与慕尼黑工业大学、巴塞罗那自治大学沉淀多年的计算机视觉课件资料,包括相机标定、立体匹配、三维重建、SLAM、三维点云、缺陷检测、深度估计、四旋翼无人机等。包括3D视觉传感器、3D视觉系统集成设备、缺陷检测设备、SLAM产品、自动驾驶。「计算机视觉工坊」公众号,主要专注3D视觉、计算机视觉算法、SLAM、三维点云处理、三维重建、自动驾驶、图像处理等领域技术干货分享。「3D视觉工坊」公众号,由多位985硕博士共同运营,主要专注3D视觉,包括工业3D视觉、自动驾驶、SLAM算法。

2025-03-30 00:01:51 17

转载 体育教师发 Nature 遭质疑,校方发文称“零的突破”引争议后删改重发

深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等。:相机标定、立体匹配、三维点云、结构光、机械臂抓取、缺陷检测、6D位姿估计、相位偏折术、Halcon、摄影测量、阵列相机、光度立体视觉等。

2025-03-29 00:01:26 32

转载 「3D视觉人的黄埔军校」6300+工程师的7年秘密基地!

多模态融合 SLAM 的门槛较高,在需要视觉 SLAM 与激光 SLAM 的基础之外,还会遇到不同模态测量的融合,不同传感器的时间同步,多传感器的外参标定,多传感器异常检测等问题,使得各位同学做这块的时候遇到诸多障碍。具身智能、大模型、扩散模型、相机标定、结构光、3DGS等三维重建、三维点云、缺陷检测、机械臂抓取、激光/视觉/多模态SLAM、自动驾驶、深度估计、模型部署、Transformer、3D目标检测、深度学习、视觉竞赛、硬件选型、视觉产品落地经验分享、学术&求职交流。

2025-03-29 00:01:26 18

转载 遥感图像中的‘视觉障碍’如何破解?LEGNet:轻量化遥感目标检测的新突破!

在四个RSOD基准数据集(DOTA-v1.0、DOTA-v1.5、DIOR-R、FAIR1M-v1.0)及无人机视角数据集(VisDrone2019)上的全面评估表明,LEGNet在五个基准数据集上均取得了SOTA性能,同时具备较高的计算效率,使其能够适用于资源受限的边缘设备,在真实遥感应用中具有良好的部署潜力。等五个数据集上的实验结果表明,LEGNet 在保持计算效率的同时,达到了 SOTA(state-of-the-art)性能,使其适用于资源受限的边缘设备,推动了遥感和卫星图像分析的发展。

2025-03-29 00:01:26 20

转载 上海AI Lab开源Aether:几何感知统一4D重建、运动规划、4D预测!

在这项工作中,我们引入了AETHER,一个具有几何感知的多任务世界模型,可以重建4D动态视频,根据观察图像和动作预测未来帧,并基于观察和目标图像进行视觉规划。:深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等。

2025-03-29 00:01:26 27

转载 港科广团队提出GraphGS:随手一拍,高效重建大型3D开放场景

深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等。:相机标定、立体匹配、三维点云、结构光、机械臂抓取、缺陷检测、6D位姿估计、相位偏折术、Halcon、摄影测量、阵列相机、光度立体视觉等。

2025-03-28 07:04:39 15

转载 打破空地协作感知瓶颈!清华开源Griffin:AGILE框架与空地合作感知!

为了解决这一问题,本文提出了一个全面的空地协作三维感知解决方案,包含三项关键贡献:(1)Griffin,一个大规模的多模态数据集,包含超过200个动态场景(30k+帧),涵盖不同的无人机高度(20-60米)、多样的天气条件以及考虑遮挡的三维标注,借助CARLA-AirSim共同仿真增强了无人机的动态表现;本文引入了Griffin数据集,这是一个多模态的集合,具有考虑遮挡的标注和无人机动态仿真,此外还提出了AGILE,一种高效的实例级中间融合方法,用于联合检测和跟踪任务。空地协同感知的动机。

2025-03-27 07:02:43 28

转载 快讯 | 自动驾驶大牛+华为天才少年,这家机器人公司天使轮融资创下纪录

深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等。:相机标定、立体匹配、三维点云、结构光、机械臂抓取、缺陷检测、6D位姿估计、相位偏折术、Halcon、摄影测量、阵列相机、光度立体视觉等。

2025-03-27 07:02:43 41

转载 CVPR 2025 | SeeGround突破零样本3D视觉定位,Qwen让AI「看见」三维世界

例如,在俯视视角下,桌子和椅子的相对位置可能会因透视投影而发生变化,原本在桌子右边的椅子可能会被误认为在左边,而 VLM 只能依赖 2D 图像中的视觉特征,无法推断物体在三维空间中的实际位置。:深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。BEV感知、Occupancy、Transformer、模型部署、3D目标检测、深度估计、多传感器标定、规划与控制。

2025-03-27 07:02:43 30

转载 相机与激光雷达如何联合标定?优秀的开源标定工具汇总!

本方案中使用了标定板角点作为标定目标物,由于Livox雷达非重复性扫描的特点,点云的密度较大,比较易于找到雷达点云中角点的准确位置。标定原理如下图所示,相机通过二维码估计标定板平面在相机坐标系下的平面方程,由于激光点云落在平面上,将点云通过激光坐标系到相机坐标系的外参数。文末附3D视觉行业细分群。

2025-03-27 07:02:43 26

转载 CVPR‘25!3D重建进入全知模式!Pow3R:单网络横扫5大SOTA任务!

深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等。:相机标定、立体匹配、三维点云、结构光、机械臂抓取、缺陷检测、6D位姿估计、相位偏折术、Halcon、摄影测量、阵列相机、光度立体视觉等。

2025-03-26 07:03:04 42

转载 如何用3年时间成为3D视觉专家?这三个秘密武器99%的人都不知道!

即可免费领取计算机视觉精品视频与慕尼黑工业大学、巴塞罗那自治大学沉淀多年的计算机视觉课件资料,包括相机标定、立体匹配、三维重建、SLAM、三维点云、缺陷检测、深度估计、四旋翼无人机等。包括3D视觉传感器、3D视觉系统集成设备、缺陷检测设备、SLAM产品、自动驾驶。「计算机视觉工坊」公众号,主要专注3D视觉、计算机视觉算法、SLAM、三维点云处理、三维重建、自动驾驶、图像处理等领域技术干货分享。「3D视觉工坊」公众号,由多位985硕博士共同运营,主要专注3D视觉,包括工业3D视觉、自动驾驶、SLAM算法。

2025-03-26 07:03:04 22

转载 知识蒸馏让3D局部描述符飞跃!地平线新作从GeDi到高效实时估计!

通过训练一个高效的学生模型来回归GeDi描述符,我们解决了若干关键挑战,例如对大规模点云数据集的需求、旋转和尺度不变性的传递,以及在蒸馏过程中处理低内点比率的问题。实验结果表明,蒸馏后的模型显著减少了推理时间,同时保持了与其他方法竞争的性能,使得零-shot 6D姿态估计更接近实时可行,具有更广泛的实际应用潜力。知识蒸馏是一种模型压缩技术,通过将一个复杂且高效的教师模型的知识传递给一个较简单且高效的学生模型,使学生模型在保持较低计算开销的同时能够达到接近教师模型的性能。这对于需要实时计算的应用非常重要。

2025-03-26 07:03:04 27

转载 CVPR‘25!3D重建进入全知模式!Pow3R:单网络横扫5大SOTA任务!

深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等。:相机标定、立体匹配、三维点云、结构光、机械臂抓取、缺陷检测、6D位姿估计、相位偏折术、Halcon、摄影测量、阵列相机、光度立体视觉等。

2025-03-26 07:03:04 19

转载 CVPR‘25!3D重建进入全知模式!Pow3R:单网络横扫5大SOTA任务!

深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等。:相机标定、立体匹配、三维点云、结构光、机械臂抓取、缺陷检测、6D位姿估计、相位偏折术、Halcon、摄影测量、阵列相机、光度立体视觉等。

2025-03-26 07:03:04 14

转载 CVPR‘25!3D重建进入全知模式!Pow3R:单网络横扫5大SOTA任务!

深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等。:相机标定、立体匹配、三维点云、结构光、机械臂抓取、缺陷检测、6D位姿估计、相位偏折术、Halcon、摄影测量、阵列相机、光度立体视觉等。

2025-03-26 07:03:04 16

转载 破局3D智能!Roblox开源《Cube》3天狂揽400星:3D重建全链路打通!

我们设想该模型将成为多种协作助手的基石,这些助手将帮助开发者从创建单个3D对象(例如,制作带翅膀的摩托车),到完整的3D场景布局(例如,创建未来风格的云之城),再到带骨骼的角色化身(例如,生成能够进行墙壁跳跃的外星忍者),以及描述物体行为、交互和游戏逻辑的脚本(例如,当玩家靠近并携带金钥匙时让门打开),从而生产Roblox体验的所有方面。结果表明,我们的形状到文本模型生成的说明文字捕获了足够的3D信息,使我们的文本到形状模型能够再现整体的3D形状,尽管会丢失一些高频几何细节。网格和零件的混合生成。

2025-03-25 07:03:16 28

转载 你管这破玩意叫 MCP?

深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等。:相机标定、立体匹配、三维点云、结构光、机械臂抓取、缺陷检测、6D位姿估计、相位偏折术、Halcon、摄影测量、阵列相机、光度立体视觉等。

2025-03-25 07:03:16 61

转载 北大FEEPE:首个在线、无标记、可泛化且无需训练的末端执行器姿态估计算法!

与传统的手眼标定方法相比,FEEPE实现了无标记的在线标定。同时,它具备在线自标定的能力,能够通过实时的视觉反馈和位姿估计,自动进行自我校准,提高机器人的准确性和灵活性。实验结果表明,方法B的性能与SAM6D和FoundationPose相当,而方法C和D的性能进一步提升,尤其是D方法,结合了多帧优化和对称性判别,显著提高了位姿估计精度。:这是一个合成数据集,通过Blender的光线追踪生成,包含了6种常见的末端执行器和3种机器人臂的组合,共180个视频段,每个段包含300帧,总计54,000帧。

2025-03-25 07:03:16 26

转载 小米汽车首曝自动驾驶研究:相机和LiDAR联合重建框架Uni-Gaussians

深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等。:相机标定、立体匹配、三维点云、结构光、机械臂抓取、缺陷检测、6D位姿估计、相位偏折术、Halcon、摄影测量、阵列相机、光度立体视觉等。

2025-03-25 07:03:16 22

转载 打王者荣耀,发NeurIPS!

该算法结合了多智能体强化学习中的QMIX算法和保守Q学习(CQL),通过将动作空间中的每个头部视为一个独立的智能体,并在QMIX的局部Q函数中引入CQL的正则化项,从而有效地处理了复杂的动作空间结构。提供了一个开源的、易于使用的离线强化学习框架,支持数据采样、模型训练和性能评估的全流程。:深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。

2025-03-24 07:02:38 28

转载 突破运动模糊极限!ETH & 微软新作Deblur-SLAM:模糊图像秒变高保真3D场景!

所提出的方法结合了帧到帧和帧到模型两种方法的优点,以对子帧相机轨迹进行建模,从而在运动模糊的情况下实现高保真重建。我们对运动模糊图像的物理图像形成过程进行建模,并最小化观察到的模糊图像和通过平均清晰的虚拟子帧图像获得的渲染模糊图像之间的误差。:深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。它结合了帧到帧和帧到模型的方法,并估计导致更锐利重建的子帧轨迹。

2025-03-24 07:02:38 31

转载 重磅升级!从零搭建一套面结构光扫描仪[源码+结构光&点云课程+答疑+硬件]

目前主流结构光技术有:散斑结构光(机器人导航)、线结构光(视觉测量)、面结构光技术(机械臂抓取等快速测量场景)。我们推出了“精讯V2”设备,是一台面相科研级的高速、高精度、源码级开发的3d面结构光测量设备,能够自由DIY配置,并且与机械臂等结合,开发相应的应用。可以结合OpenCV部署各类AI应用,如6d姿态抓取等,结合我们工坊推出课程,可以完成大多数3d视觉领域的任务。更方便、高精度的单目标定/重建算法,只需要单方向条纹,即可完成标定、重建、畸变矫正。单目重建:标定、重建、畸变校正、点云显示。

2025-03-24 07:02:38 32

转载 【限时开放】BEV+Occupancy+大模型技术风暴!与一线算法工程师深度碰撞

群内重点会分享3D视觉最新技术动态以及行业资讯,成员之间讨论也非常活跃!,备注:研究方向+学校/单位+名称,即刻拉你入群~3D视觉交流群成立啦,欢迎加入!

2025-03-24 07:02:38 41

转载 零-shot工业缺陷检测!EIAD:大规模视觉-语言模型助力工业缺陷检测!

深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等。:EIAD框架在零-shot学习的设置下进行训练,意味着模型在测试时没有见过特定的训练数据,增强了其泛化能力,能够适应新的和未见过的工业缺陷。

2025-03-24 07:02:38 36

转载 告别模糊与失真!FlexWorld突破单图3D重建极限!

深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。摄像机轨迹规划的重要性通过去掉 Zoom-out 轨迹的实验得以验证,生成场景的内容与输入视角不匹配,导致结构模糊(见图 9b),说明初始拉远变焦(Zoom-out)对于扩展三维场景不可或缺。展示了由密集立体模型MASt3R生成的初始点云渲染的不完整视频帧,以及该研究的3DGS重建结果。

2025-03-23 00:01:13 43

转载 从无人机炸机到年薪50W+:揭秘卡尔曼滤波的实战进阶手册!

常见的异常包括传感器数据断联,传感器数据值无效,传感器数据值有效但是不准确等,这些异常处理往往在算法之外单独设计逻辑处理。对于加速度计,GPS,光流,TOF等测量加速度,速度与位置的传感器,安装位置往往不在飞机重心,旋转将带来额外的测量误差,需要进行精确的。数据融合使用合适的算法,将各种传感器的数据映射为飞机的位置,速度与姿态。传感器模型,数字滤波器,姿态变换,刚体运动,卡尔曼滤波等众多基础知识,为理解多传感器融合奠定基础。在缺乏良好数据预处理时,估计器的参数调节变得困难,融合的精度也将降低。

2025-03-23 00:01:13 36

转载 CV/ML领域A会poster/spotlight/oral和tpami的认可度对比是怎样的?

原问题里的A会除了CV/ML的三大会,还需要考虑包括AAAI、IJCAI、MM等会被某些大组/同学认为“档次不够”的A会,我觉得就目前投稿环境见仁见智吧,对于boardline附近的论文确实太看运气了,NIPS被拒后选择投AAAI也不敢说稳中吧。后面这个工作转投了PAMI,是俩大修一小修。2、会议的oral是很难拿的,在个人工作很强的基础上也得有审稿人愿意给strong accept 加AC的推荐才行。4、最后,个人感觉只要是solid且有亮点的工作,即使放到如此random的今天,也是会有好的去处。

2025-03-23 00:01:13 28

转载 CVPR 2025 满分论文!TSP3D:高效3D视觉定位(3D Visual Grounding)

我们的TSP3D包含3 level的稀疏卷积和两次特征上采样,因此相应设置了两阶段的TGP模块:场景级TGP(level 3 to 2)和目标级TGP(level 2 to 1)。在这篇文章中,我们提出了TSP3D,一个高效的3D视觉定位(3D Visual Grounding)框架,在性能和推理速度上均达到SOTA。改为attention机制的特征融合:如上图(b)所示,由于生成式稀疏卷积的作用,体素数量(场景表示的分辨率)极高,导致进行attention计算时显存溢出,在消费级显卡上难以训练和推理。

2025-03-23 00:01:13 35

转载 GPT-5将免费向用户开放,DeepSeek逼的

我们是 Y Combinator 最初一批资助的公司之一,我既非常感激,又认为这是最酷的事情,这是一个很棒的社区,我仍然认为 YC 对科技行业的影响被低估了,尽管人们认为它产生了巨大的影响。不管怎样,随着OpenAI的推出,我逐渐对它越来越着迷,它一开始是YC的六个研究项目之一,也是我花时间研究的数百家公司之一,然后事情就发展成这样了,我痴迷于它。因此,用户有明确的需求,我们在RLHF方面也一直在进步,我们认为可以调整模型使其更好,然后我们有了当时没人知道的东西,那就是GPT-4,GPT-4真的很棒。

2025-03-22 00:02:03 36

转载 为什么顶尖机器人工程师都要死磕6D位姿估计?

随着工业智能化改造的不断深入,许多企业智能化改造,逐渐将计算机视觉技术和机器人技术引入生产制造过程中,应用于生产线对物料校准和定位,将视觉系统作为机器人对外界环境感知的一种辅助定位系统,就像给工业机器人装上了眼睛,采集场景信息,由控制器进行处理、判断,进而完成对应的控制指令。机器人视觉抓取的目的是使用一个机械手模型(包括二指或多指夹爪,吸盘等),以RGB或RGBD相机采集的场景图像为输入计算出一个最优的抓取位姿,使机械手在该位姿下可以稳定地抓取模型已知或未知的物体。对机器人抓取的相关算法原理、

2025-03-22 00:02:03 52

转载 科研级!DriveBot-Q1 | 从零搭建一套智能无人车[硬件+源码+教程+答疑]

DriveBot-Q1智能无人车是一款专为高校科研设计的多功能无人车,采用阿克曼车辆底盘,集成计算平台、车辆控制单元(VCU)、单线/多线激光雷达、单目相机、IMU和GNSS等硬件。DriveBot-Q1智能无人车整车配置如图4所示,由高精度有源车载天线、IMU,Livox MID360激光雷达、工业级相机和双频工业路由器组成,定制适配的无人车底盘,搭建出一套完整的无人车硬件系统。DriveBot-Q1智能无人车发货清单如图3所示。DriveBot-Q1智能无人车参数如表2所示。

2025-03-21 11:34:27 52

转载 实验室爆款:支持SLAM算法验证的御风250开源套件上线 | 配套MATLAB/PX4实战课程

简单的控制算法(如PID,LQR)可以在飞控中实现,对于复杂的控制算法(如MPC)可以将位置闭环,甚至姿态闭环在板载计算机中运行,最终发布角速度指令到飞控。在板载计算机中运行激光雷达SLAM算法(课程配套FAST-LIO算法),实现位姿估计,并且将结果发送到飞控,飞控中运行EKF算法融合外部定位。在板载计算机中运行规划算法(课程配套EGO-Planner),实现在有障碍环境中的实时路径规划,并且将规划指令发送到无人机,控制无人机运动。具体包括:IMU,磁力计,气压计,GPS,光流,下视TOF,激光雷达。

2025-03-21 07:01:45 14

转载 CVPR‘25开源 | 浙大新作Murre:纳入SfM先验,三维重建超越最先进的MVS框架!

此外,我们在各种类型的场景(包括室内、街景和鸟瞰图)中评估了我们的方法的重建质量,超过了最先进的MVS方法。传统的基于图像的3D重建方法要么依赖于多视图立体匹配,要么依赖于可微分的反向渲染,但由于纹理不足或输入视图非常稀疏,可能会面临高计算成本和低重建质量的问题。实验结果表明,我们的策略显著增强了扩散模型预测的深度图的多视图一致性。给定目标场景的多个视图图像以及结构自运动(SfM)的稀疏重建结果,我们的目标是利用SfM先验估计每个视图的密集深度,这些深度可以融合以获得场景的几何重建,如图2所示。

2025-03-21 07:01:45 15

转载 CVPR‘25|给机器人装上大脑!RoboBrain教你如何具像化操作!

中国科学院自动化研究所在读硕士,北京智源人工智能研究院RoboBrain团队核心成员。研究方向为计算机视觉与具身智能。,为大家详细介绍他CVPR 2025中稿的工作。如果您有相关工作需要分享,欢迎联系:cv3d008。为大家详细介绍他在智源研究院完成的CVPR中稿工作。如果您有相关工作需要分享,欢迎文末联系我们。:本次分享我们邀请到了中国科学院自动化研究所在读硕士。本次分享我们邀请到了中国科学院自动化研究所在读硕士。扫码观看直播,或前往B站搜索3D视觉工坊观看直播。3D视觉工坊哔哩哔哩。

2025-03-21 07:01:45 13

转载 让无人机自主避障的“上帝视角“是如何炼成的?卡尔曼滤波核心算法全解剖!

常见的异常包括传感器数据断联,传感器数据值无效,传感器数据值有效但是不准确等,这些异常处理往往在算法之外单独设计逻辑处理。对于加速度计,GPS,光流,TOF等测量加速度,速度与位置的传感器,安装位置往往不在飞机重心,旋转将带来额外的测量误差,需要进行精确的。数据融合使用合适的算法,将各种传感器的数据映射为飞机的位置,速度与姿态。传感器模型,数字滤波器,姿态变换,刚体运动,卡尔曼滤波等众多基础知识,为理解多传感器融合奠定基础。在缺乏良好数据预处理时,估计器的参数调节变得困难,融合的精度也将降低。

2025-03-21 07:01:45 11

转载 CVPR 2025 | 清华提出MambaIRv2:图像复原超强SOTA模型

在现有的基于Mamba的图像恢复方法中,原始图像中相距遥远的像素通常在展开的序列中仍然相距遥远,导致查询像素对于已经扫描的、空间上遥远但相似的像素的利用不足。我们的关键见解是,与自回归语言建模不同,图像恢复是一个非因果任务,所有像素都可以一次性观察到,因此我们可以重新定义令牌邻域,使得语义相似的令牌在展开的序列中空间上更接近。这种mamba,或者更一般的自回归模型,的固有性质虽然对NLP任务很match,但是对非因果的视觉任务其实是存在局限的,因为大多数的视觉任务的所有token,即像素,是一次性可观的。

2025-03-21 07:01:45 54

转载 让无人机自主避障的“上帝视角“是如何炼成的?卡尔曼滤波核心算法全解剖!

常见的异常包括传感器数据断联,传感器数据值无效,传感器数据值有效但是不准确等,这些异常处理往往在算法之外单独设计逻辑处理。对于加速度计,GPS,光流,TOF等测量加速度,速度与位置的传感器,安装位置往往不在飞机重心,旋转将带来额外的测量误差,需要进行精确的。数据融合使用合适的算法,将各种传感器的数据映射为飞机的位置,速度与姿态。传感器模型,数字滤波器,姿态变换,刚体运动,卡尔曼滤波等众多基础知识,为理解多传感器融合奠定基础。在缺乏良好数据预处理时,估计器的参数调节变得困难,融合的精度也将降低。

2025-03-21 07:01:45 18

支持linux下像素级查看图片

支持linux下像素级查看图片

2023-01-29

Ymodem串口升级界面及源码(linux下也可使用)

Ymodem串口升级界面及源码(QT)

2022-07-20

如何在Linux下使用“linuxdeployqt”源码打包发布Qt程序

使用教程请参考博客:https://yongqi.blog.youkuaiyun.com/article/details/125841736

2022-07-18

ubuntu下基于Clion+QT编写的界面demo,适合入门

ubuntu下基于Clion+QT编写的界面demo,适合入门, 博客请参考:https://yongqi.blog.youkuaiyun.com/article/details/125698957

2022-07-11

针孔、鱼眼相机标定,包括单目和双目标定demo

针孔、鱼眼相机标定,包括单目和双目标定demo, 基于OpenCV和C++。

2022-07-01

OpenCV3.3.1安装包

用法请参考:https://mp.youkuaiyun.com/mp_blog/creation/success/125555489

2022-07-01

linux下TCP通讯助手

里面为deb文件,直接双击即可安装。或者通过指令: sudo dpkg -i **.deb 如果安装后点击软件无反应,则需要在终端执行: sudo apt-get install libqtgui4:amd64

2022-06-30

本demo主要实现ubuntu下实现与PLC以及机械臂之间的TCP网络通讯,并将C++代码编译成可以供C函数直接调用的C库。

本demo主要实现ubuntu下实现与PLC以及机械臂之间的TCP网络通讯,并将C++代码编译成可以供C函数直接调用的C库。

2022-06-22

Windows下TCP通讯实战demo及TCP助手

内容概要: Windows下TCP通讯实战demo,可以直接适用于与EPSON或者三菱等机械臂通讯,包括发送与接收字符串,位姿坐标等,以及两个好用的TCP助手。 适用人群:需要进行网络通讯的场景。

2022-06-03

Linux下的TCP通讯实战demo以及通讯助手下载

内容概要: Linux下的TCP通讯实战demo,以及通讯助手小工具 适用人群: 需要进行TCP网络通讯的问题。 主要适用场景。 通过网线或者wifi进行数据通讯的场景 //注意:在使用tcp/ip通讯时,请将服务器与客户端的ip设为同一个网段。 //本次演示的demo中, //服务器的ip为:192.168.3.8 端口号为8080 //客户端的ip为:192.168.3.48 端口号为36214(可以通过串口助手查看端口号) //以上同一个网段,如何判断两个ip地址是否为同一个网段,可以参考博客:https://baijiahao.baidu.com/s?id=1687382131051003813&wfr=spider&for=pc

2022-06-03

particle_filter_demo.zip

主要封装了粒子滤波(Particle Filter)对于非线性系统、非高斯噪声系统的跟踪效果,附有数据与图形展示过程,直观易懂。

2020-12-03

UKF(无迹卡尔曼滤波)

主要封装了UKF(无迹卡尔曼滤波)的跟踪demo,并配有直观的图形展示,简单易用。 UKF,是KF、EKF的变种与扩展,对于非线性跟踪效果要明显好于KF。

2020-12-03

Visual Assistant 2015破解版安装包

详细的安装教程请参见:https://mp.weixin.qq.com/s/_JvR9pWiIvDI7uOQvr1IGA

2018-09-12

精确绘制椭圆

该文件封装好的函数为:1、利用OpenCV函数绘制椭圆;2、利用面积法精确绘制椭圆。替换掉OpenCV属性表,即可成功运行。

2018-05-22

Github安装包

Github安装包。点击下载,解压即可轻松安装。便于项目工程管理。

2018-05-12

VS2013+OpenCV3.1.0配置教程

该文档为OpenCV3.1.0在VS2013中详细的配置教程,包括相关安装包的下载链接。

2018-05-08

QT在VS2013中的配置

该文档为QT5.7.1在VS2013中详细的配置教程,文章中对于配置过程中必要的软件安装包下载链接皆已提供。

2018-05-08

PCL1.8.0+VS2013+Win10 x64的配置教程

本篇文章主要介绍一下PCL库的配置过程,适合PCL入门。 一配置环境 1.win10 X64 2.Visual Studio 2013

2018-05-08

粒子滤波在图像领域的跟踪

粒子滤波在非高斯、非线性状况下,运动情况由于卡尔曼滤波。这是我在研究粒子滤波时,封装好的测试程序。下载之后,只需要将opencv属性表添加进来,便可以观看到运行效果图。

2018-04-25

卡尔曼滤波示例程序

这是我在研究卡尔曼滤波以及粒子滤波时,封装好的卡尔曼滤波跟踪二维点的程序。程序中已经有测试好的点击,配置好opencv属性表,便可以直接运行。

2018-04-25

xml读写项目总结

里面包括:1、封装好的XML文件的读和写工程;2、tinyxml库;3、xmlPPT讲解。

2018-01-26

XML头文件与cpp函数

此为XML文件读写的函数头文件与cpp文件,在项目中添加进来即可。

2018-01-26

socket通信界面程序

1、发送端为利用PointGrey相机追踪编码点并将其坐标值传输给接收端; 2、接收端为使用Qt Data Visualizaiton库编写的三维点显示界面。

2018-01-24

socket通信技术

1、 程序:socket_Send为发送端; 程序:socket_Receive为接收端; 2、 此程序可以用来接收和发送txt,jpg.avi等各种文件和char类型的数据; 如果对于结构体,可以先将其转化成char,再发送,接收之后,再转化成结构体。 可以参考我知乎提供的方法。

2018-01-23

QGraphicsView类的简单用法

QT 控件QGraphicsView的简单用法,包含头文件和cpp,函数调用参考README.txt

2018-01-18

GBK.h QT中显示中文

只要包含该头文件在QT工程中, QString imgPath = QFileDialog::getExistingDirectory(this, GBK::ToUnicode("设置图像 打开路径"), "D:/ImgFiles/", QFileDialog::Option::ShowDirsOnly); 如这条语句中用法,便可显示中文。

2018-01-18

配置VS2013+Qt5开发环境续:安装和设置以及QT工程创建

该资源为VS2013+QT5开发环境的安装配置以及Qt的工程创建。

2018-01-08

socket通信

socket通信实现代码,已经成功测试。可以运用于QT以及MFC。

2018-01-08

相机拍照程序(PointGrey相机)

资源中是我经常使用的PointGrey相机的拍照程序,实现了可以使用软触发和硬触发拍照。

2017-12-21

串口自动识别

Com端自动识别函数的封装,经过测试,亲测有效,可以自动识别串口号。

2017-12-21

相机最佳曝光时间的确定

由于每次使用相机时,需要调试相机的曝光时间,比较耽误时间,因而封装了一个函数,可以用来确定相机最佳的曝光时间。

2017-12-21

XML文件读写程序C++

XML文件读写封装好的程序,可以加入到工程中直接使用。

2017-12-21

qt data visualization 5.7.1 源码

这是我在QT官网上下载的qt data viualization的源码,可以使用Cmake成功编译。

2017-12-19

Particle滤波 粒子滤波跟踪算法

粒子滤波跟踪算法,我已成功运用于光笔的动态跟踪,现上传,希望可以帮助到大家。

2017-08-22

串口程序 可以自动识别串口号

可以用来自动识别串口号,方便快捷,成功应用于ZigBee板子中。

2017-05-13

利用PointGrey相机连续拍照

此程序可以用来给PointGrey通过程序拍照,并且拍完的照片可以连续保存到指定的文件夹下。

2017-05-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除