- 博客(510)
- 资源 (50)
- 收藏
- 关注

原创 机器人学习模拟框架 robosuite 支持强化学习和模仿学习 (1) 快速入门
RoboSuite 是一款基于MuJoCo物理引擎构建的机器人学习模拟框架。人形机器人、自定义机器人组合,还包含复合控制器(像全身控制器等)、更多遥控设备选项,以及能够呈现出照片级逼真效果的渲染功能。
2025-02-23 00:24:34
1262
3

原创 DeepSeek-R1 本地电脑部署 Linux系统 【轻松简易】
本文分享在自己的本地电脑部署 DeepSeek,而且轻松简易,快速上手。这里借助Ollama工具,在Windows系统中进行大模型部署~ 本文的成功部署了DeepSeek-R1的1.5b、8b、14b、32b等版本
2025-02-09 07:10:59
2613

原创 DeepSeek-R1 本地电脑部署 Windows系统 【轻松简易】
本文分享在自己的本地电脑部署 DeepSeek,而且轻松简易,快速上手。借助Ollama工具,在Windows系统中进行大模型部署~
2025-02-06 22:58:14
5443
9

原创 【机器人】SceneGrasp 同时支持3D物体重建、6D位姿估计、抓取点估计
本文分享SceneGrasp,它来自IROS2023,同时支持物体分类、3D物体重建、6D位姿估计、抓取点估计。它是一种快速、高效且同时处理多个任务的方法,能够使机器人更好地理解和操作其环境。同时处理多个任务,实现任务之间共享信息,而且速度达到30 FPS。
2025-01-13 18:35:43
1566
1

原创 【机器人】01 强化学习、模仿学习和运动规划 仿真平台ISAAC Lab安装与使用
ISAAC Lab是 NVIDIA 提供的一个 GPU 加速的开源框架,专为简化机器人研究工作流程而设计,特别是在和等领域。它基于 NVIDIA 的 ISAAC Sim 构建,结合了高精度的物理和传感器,成为了从仿真到现实应用的理想选择。本文会分享ISAAC Lab的安装和使用,通过和进行安装的,适用于windows系统,带大家规避一些坑。
2024-12-03 01:11:19
2856

原创 YOLO11 图像缩放 | 图像填充 | 自适应不同尺寸的图片
本文分享YOLO中的图像缩放、填充,实现任意图像训练和推理的基础,是图像预处理中的工作。本文的代码和示例,适合YOLO11、YOLOv8和YOLOv5等版本。
2024-10-26 15:11:01
4775
1

原创 一篇文章快速认识YOLO11 | 旋转目标检测 | 原理分析 | 模型训练 | 模型推理
本文分享YOLO11的旋转目标检测任务,在原始目标检测中,添加多一个角度预测,实现定向边界框检测。包括1、旋转目标检测概述;2、YOLO11中的OBB数据格式;3、分析模型配置参数;4、分析检测头代码;5、编写模型训练;6、开始训练;7、模型推理
2024-10-24 19:30:12
8006
17

原创 YOLO11 目标检测 | 自动标注 | 预标注 | 标签格式转换 | 手动校正标签
本文分享使用YOLO11进行目标检测时,实现模型推理预标注、自动标注、标签格式转换、以及使用Labelme手动校正标签等功能。
2024-10-20 11:36:56
5800
1

原创 YOLO11 目标检测 | 导出ONNX模型 | ONNX模型推理
本文分享YOLO11中,从xxx.pt权重文件转为.onnx文件,然后使用.onnx文件,进行任务的。用,便于算法到开发板或芯片的部署。备注:本文是使用Python,编写ONNX模型推理代码的。
2024-10-17 19:20:37
10772
12

原创 YOLO11 实例分割 | 导出ONNX模型 | ONNX模型推理
本文分享YOLO11中,从xxx.pt权重文件转为.onnx文件,然后使用.onnx文件,进行实例分割任务的模型推理。用ONNX模型推理,便于算法到开发板或芯片的部署。备注:本文是使用Python,编写ONNX模型推理代码的。
2024-10-15 18:37:52
5225
7

原创 YOLO11 实例分割 | 自动标注 | 预标注 | 标签格式转换 | 手动校正标签
本文分享使用YOLO11进行实例分割时,实现模型推理预标注、自动标注、标签格式转换、以及使用Labelme手动校正标签等功能。
2024-10-14 19:11:18
6158
6

原创 一篇文章快速认识 YOLO11 | 实例分割 | 模型训练 | 自定义数据集
本文分享YOLO11的实例分割,通过自定义数据集、数据标注、标签格式转换、模型训练、模型推理和验证。目录1、数据标注2、Labelme的json转为YOLO的txt3、配置YOLO11代码工程4、数据集yaml配置文件5、YOLO11模型结构配置文件6、编写训练代码7、开始训练模型8、YOLO11模型训练——代码浅析。
2024-10-12 20:27:42
9279
7

原创 YOLO11模型训练 | 目标检测与跟踪 | 实例分割 | 关键点姿态估计
本文分享YOLO11的模型推理,检测任务包括物体分类、目标检测与跟踪、实例分割 、关键点姿态估计、旋转目标检测等。安装方式支持:默认的使用pip进行安装;也支持直接调用YOLO11源码,灵活便捷修改源码。本文支持自定义数据集,并提供详细训练参数的train.py版本,方便大家训练测试。
2024-10-11 06:00:00
6772
3

原创 YOLO11模型推理 | 目标检测与跟踪 | 实例分割 | 关键点估计 | OBB旋转目标检测
本文分享YOLO11的模型推理,检测任务包括物体分类、目标检测与跟踪、实例分割 、关键点估计、旋转目标检测等。
2024-10-09 21:50:43
7931
3

原创 一篇文章快速认识YOLO11 | 关键改进点 | 安装使用 | 模型训练和推理
本文分享YOLO11的关键改进点、性能对比、安装使用、模型训练和推理等内容。YOLO11 是 Ultralytics 最新的实时目标检测器,凭借更高的精度、速度和效率重新定义了可能性。除了传统的目标检测外,YOLO11 还支持目标跟踪、实例分割、关键点姿态估计、OBB定向物体检测(旋转目标检测)等视觉任务。1. YOLOv3:核心改进:YOLOv3 是 YOLO 系列的第三代,由 Joseph Redmon 于 2018 年发布,标志着 YOLO 从原始的单尺度检测进化到多尺度检测。
2024-10-08 23:26:27
24589
9

原创 CVPR2024 合成异常数据 工业异常检测 RealNet
本文分享一个基于扩散模型的异常检测框架,用于检测工业场景的缺陷检测或异常检测。强度可控扩散异常合成:基于扩散过程的合成策略,能够生成不同强度的异常样本,模仿真实异常样本的分布。异常感知特征选择:选择代表性和判别性的预训练特征子集,以提高异常检测性能并控制计算成本。重建残差选择:自适应选择判别性残差,用于全面识别各级异常区域。强度可控扩散异常合成,简称为SDAS,生成的异常图像,如下图所示。这些异常图像,都是基于正常图像生成的。
2024-05-31 23:08:56
5673
1

原创 3D工业视觉
本文主要介绍3D视觉技术、工业领域的应用、市场格局等。3D视觉技术满足工业领域更高精度、更高速度、更柔性化的需求,扩大工业自动化的场景。移动机器人视觉引导是一个前景的场景,主要技术包括结构光、ToF、立体视觉。从深度学习到通用视觉大模型,AI助力机器视觉提升效率,拓展应用场景。
2024-05-23 20:51:03
3654
3

原创 【6D位姿估计】SAM-6D 当分割一切遇到位姿估计 CVPR2024
本文介绍6D位姿估计的方法SAM-6D,来自CVPR 2024的论文。它是一个用于零样本6D位姿估计的框架,在测试新物体时,无需进行微调,直接进行检测。通过结合实例分割模型和姿态估计模型,实现对新物体的6D姿态估计。
2024-05-17 19:09:37
4231
7

原创 【6D位姿估计】FoundationPose 支持6D位姿估计和跟踪 CVPR 2024
本文介绍6D位姿估计的方法FoundationPose,是CVPR 2024的满分论文,支持6D位姿估计和跟踪。通过大规模的合成数据训练,具有强大的泛化能力,在测试新物体时,无需进行微调。支持输入一些物体的RGBD图片,模型进行3D物体构建;生成多个假设的姿态,进行评分和排序得到最精准的姿态。
2024-05-09 00:16:09
12680
7

原创 【多模态融合】MetaBEV 解决传感器故障 3D检测、BEV分割任务
本文介绍多模态融合中,如何解决传感器故障问题;基于激光雷达和相机,融合为BEV特征,实现3D检测和BEV分割,提高系统容错性和稳定性。会讲解论文整体思路、模型框架、论文核心点、损失函数、实验与测试效果等。
2024-04-06 19:42:09
2534

原创 【多模态融合】SuperFusion 激光雷达与相机多层次融合 远距离高清地图预测 ICRA 2024
本文介绍激光雷达与相机进行多层次融合,包括数据级融合、特征级融合和BEV级融合。融合后的BEV特征可以支持不同的任务头,包括语义分割、实例编码和方向预测,最后进行后处理生成高清地图预测,它是来自ICRA 2024的。会讲解论文整体思路、模型框架、论文核心点、损失函数、实验与测试效果等。
2024-03-26 01:45:35
7897
1

原创 【多模态融合】CRN 多视角相机与Radar融合 实现3D检测、目标跟踪、BEV分割 ICCV2023
本文介绍使用雷达与多视角相机融合,实现3D目标检测、3D目标跟踪、道路环境BEV分割,它是来自ICCV2023的。会讲解论文整体思路、输入数据分析、模型框架、设计理念、损失函数等。
2024-03-03 13:13:29
2532

原创 4D毫米波雷达——ADCNet 原始雷达数据 目标检测与可行驶区域分割
本文介绍使用4D毫米波雷达,基于原始雷达数据,实现目标检测与可行驶区域分割,它是来自2023-12的论文。ADCNet只使用雷达信息,实现车辆检测和可行驶区域分割。输入:原始雷达数据;即ADC数据,由4D毫米波雷达生成。信号处理模块:用一个可学习的信号处理层,来处理原始ADC数据。RD特征:信号处理层将ADC数据,转为RD特征,范围-多普勒信息,包含距离和速度信息。主干网络:进一步编码RD特征,隐式地估算目标的方位角。任务头:首先进行RAD张量预训练。在预训练完后,进行微调检测任务头和分割任务头
2024-01-30 00:24:41
3014

原创 4D毫米波雷达——FFT-RadNet 目标检测与可行驶区域分割 CVPR2022
本文介绍使用4D毫米波雷达,实现目标检测与可行驶区域分割,它是来自CVPR2022的。会讲解论文整体思路、输入数据分析、模型框架、设计理念、损失函数等,还有结合代码进行分析。输入是“范围-多普勒”信息,即RD图;由4D毫米波雷达生成。经过主干网络和FPN提取特征信息,并进一步编码形成“范围-角度”信息”。然后接两个任务头:车辆检测任务、可行驶区域分割任务。
2024-01-21 17:59:54
4279
4

原创 4D毫米波雷达——原理、对比、优势、行业现状
4D 毫米波雷达是传统毫米波雷达的升级版,4D指的是速度、距离、水平角度、垂直高度四个维度。相比传统 3D 毫米波雷达,4D 毫米波雷达增加了“高度”的探测,将第四个维度整合到传统毫米波雷达中。4D毫米波雷达被视为未来车载雷达的一种可能的标准配置,因为它在多方面优于传统的毫米波雷达和低线激光雷达,能与高线激光雷达互补。预计这种雷达将被广泛应用于各种车型中。与传统雷达产品相比,4D毫米波雷达能够突破在静止目标识别横向移动检测高度识别区分邻近物体和探测隐藏车辆等方面的限制。
2024-01-18 00:02:47
15141

原创 【占用网络】SurroundOcc:基于环视相机实现3D语义占用预测 ICCV 2023
本文分享“占用网络”方案中,来自ICCV 2023的SurroundOcc,它基于环视相机实现3D语义占用预测。使用空间交叉注意力将多相机图像信息提升到3D体素特征,即3D体素Query到2D图像中查询融合特征的思想。然后使用3D卷积逐步对体素特征进行上采样,并在多个层次特征图上进行损失监督。同时,SurroundOcc介绍了如何通过多帧点云,构建稠密的3D语义占用栅格数据集,这部分也是挺重要的。清华大学云盘。
2024-01-10 23:57:01
1819

原创 【占用网络】VoxFormer 基于视觉的3D语义场景方案 CVPR 2023
本文分享“占用网络”方案中,来自CVPR2023的VoxFormer,它基于视觉实现3D语义场景补全。使用Deformable Attention从图像数据中,预测三维空间中的体素占用情况和类别信息。VoxFromer是一个两阶段的框架第一个阶段:预测每个像素的深度值,将像素投影三维空间中,2D图像到3D空间的思想。然后预测每个三维网格是否被占用,生成稀疏体素特征。最后选择其中是“占用”的体素作为“体素查询特征”进入第二阶段。这个阶段只预测占用情况,选择一些值得分析的体素。第二个阶段。
2024-01-04 00:43:57
2506

原创 【占用网络】OccNet: Scene as Occupancy 适用于检测、分割和规划任务 ICCV2023
本文分享“占用网络”方案中,具有代表性的方法:OccNet。它以多视角视觉为核心,首先生成BEV特征,然后通过级联结构和时间体素解码器重建生成3D占用特征。构建一个通用的“3D占用编码特征”,用以表示3D物理世界。这样的特征描述可以应用于广泛的自动驾驶任务,包括检测、分割和规划。
2023-12-29 00:44:48
2635

原创 【BEV感知】BEVFormer 融合多视角图形的空间特征和时序特征 ECCV 2022
本文分享BEV感知方案中,具有代表性的方法:BEVFormer。基本思想:使用可学习的查询Queries表示BEV特征查找图像中的空间特征和先前BEV地图中的时间特征。它基于Deformable Attention实现了一种融合多视角相机空间特征和时序特征的端到端框架,适用于多种自动驾驶感知任务。主要由3个关键模块组成:BEV Queries Q:用于查询得到BEV特征图Spatial Cross-Attention:用于融合多视角空间特征。
2023-12-17 23:12:08
5580
3

原创 单目3D目标检测 方法综述——直接回归方法、基于深度信息方法、基于点云信息方法
本文综合整理单目3D目标检测的方法模型,包括:基于几何约束的直接回归方法,基于深度信息的方法,基于点云信息的方法。万字长文,慢慢阅读~ 直接回归方法涉及到模型包括:MonoCon、MonoDLE、MonoFlex、CUPNet、SMOKE等。基于深度信息的方法涉及到模型包括:MF3D、MonoGRNet、D4LCN、MonoPSR等。基于点云信息的方法涉及到模型包括:Pseudolidar、DD3D、CaDDN、MonoDTR等。
2023-10-26 00:26:07
5831
2

原创 手把手搭建一个【卷积神经网络】
前言本文介绍卷积神经网络的入门案例,图像分类;使用到CIFAR10数据集,它包含10 类,即:“飞机”,“汽车”,“鸟”,“猫”,“鹿”, “狗”,“青蛙”,“马”,“船”,“卡车” ;共 60000 张彩色图片;通过搭建和训练卷积神经网络模型,对图像进行分类,能识别出图像是“汽车”,或“鸟”,还是其它。思路流程导入 CIFAR10 数据集 探索集数据,并进行数据预处理 建立模型(搭建神经网络结构、编译模型) 训练模型(把数据输入模型、评估准确性、作出预测、验证预测) 使用训练..
2021-05-05 17:12:20
16792
27

原创 【神经网络】综合篇——人工神经网络、卷积神经网络、循环神经网络、生成对抗网络
前言本文综合整理常用的神经网络,包括生物神经网络、人工神经网络、卷积神经网络、循环神经网络、生成对抗网络;参考了许多高校的课程、论文、博客和视频等。文章的结构是先进行概念了解,然后结合图片、结构图、一步一步详细讲解;大家要不看看?( •̀ ω •́ )y一、人工神经网络简介:人工神经网络(Artificial Neural Network, ANN),由人工神经元构成的网络,模拟人类的大脑;它模拟生物过程以反映人脑某些特征的计算结构。联系:人工神经元模拟生物神经元;人工神经网络模拟...
2021-04-17 17:03:06
41550
19

原创 一篇文章认识《双目立体视觉》
双目立体视觉,由两个摄像头组成,像人的眼睛能看到三维的物体,具有深度的信息;单目视觉只能看到二维的物体。1)双目摄像头2)双目相机基线3)打开双目摄像头4)双目测距视差disparity、极线约束、极线校正/立体校正、a.双目标定b.双目矫正c.立体匹配d.双目测距(三角测量)e.测距效果立体视觉方法评测网站
2021-04-02 01:28:17
7001
25

原创 目标检测模型NanoDet(超轻量,速度很快)介绍和PyTorch版本实践
YOLO、SSD、Fast R-CNN等模型在目标检测方面速度较快和精度较高,但是这些模型比较大,不太适合移植到移动端或嵌入式设备;轻量级模型 NanoDet-m,对单阶段检测模型三大模块(Head、Neck、Backbone)进行轻量化,目标加检测速度很快;模型文件大小仅几兆(小于4M)。该代码基于NanoDet项目进行小裁剪,专门用来实现Python语言、PyTorch 版本的代码,下载直接能使用,支持图片、视频文件、摄像头实时目标检测。
2020-12-02 23:25:20
36174
66

原创 基于神经网络——鸢尾花识别(Iris)
前言鸢尾花识别是学习AI入门的案例,这里和大家分享下使用Tensorflow 2框架,编写程序,获取鸢尾花数据,搭建神经网络,最后训练和识别鸢尾花。流程:1)获取鸢尾花数据,分析处理。2)整理数据位训练集,测试集。3)搭建神经网络模型。4)训练网络,优化网络模型参数。5)保存最优的模型,进行识别...
2020-07-05 19:30:03
33943
19
原创 【机器人】复现 GraspNet 端到端抓取点估计 | PyTorch2.3 | CUDA12.1
GraspNet是的大规模基准的基线模型,值得学习和复现。本文分享使用较新版本的PyTorch和CUDA,来搭建开发环境。
2025-03-30 11:28:12
773
1
原创 【机器人】复现 GrainGrasp 精细指导的灵巧手抓取
GrainGrasp为每个手指提供细粒度的接触指导,为灵巧手生成精细的抓取策略。通过单独调整每个手指的接触来实现更稳定的抓取,从而提供了更接近人类能力的抓取指导。
2025-03-24 19:56:03
1084
1
原创 【机器人】论文分析 ASGrasp 通用透明物体重建、6-DoF抓取预测
在机器人抓取领域,透明和镜面物体的抓取一直是个难题。物体是透明的,光线会直接穿过,深度相机就很难准确测量出杯子的实际位置和形状,很难准确地感知这类物体的深度信息。ASGrasp核心是两层学习型立体网络,能够同时恢复透明和镜面物体的可见部分和不可见部分的深度信息。然后融合两层深度信息,进行重建物体,得到点云信息作为GSNet(GraspNess)的输入,进而预测出抓取位姿。
2025-03-23 16:21:19
941
原创 【机器人】复现 ASGrasp 通用透明物体重建、6-DoF抓取预测
在机器人抓取领域,透明和镜面物体的抓取一直是个难题。ASGrasp核心是,能够同时的和的。然后融合两层深度信息,进行重建物体,得到点云信息作为GSNet(GraspNess)的输入,进而预测出抓取位姿。与传统方法不同,ASGrasp不依赖深度相机生成的深度图,而是直接从主动立体相机获取的和入手。
2025-03-15 17:01:15
897
1
原创 问题解决 RuntimeError: cusolver error: 7, when calling cusolverDnCreate(handle)
在 NVIDIA 的 cuSOLVER 库中,错误代码 7(CUSOLVER_STATUS_ALLOC_FAILED)表示资源分配失败,通常是由于 cudaMalloc() 失败引起的
2025-03-15 08:30:00
333
CVPR 2022 Tutorial Denoising Diffusion-based Generative Model
2023-11-11
整理近年来《人工智能》的标准和评估规范
2020-11-19
宝马:深度学习在自动驾驶中的应用及部署过程.pdf
2020-04-05
“2019年中国自动驾驶行业发展研究报告-前瞻产业研究院-2019.8”.pdf
2020-04-05
VScode+opencv3.4+mingw5.3+cmake-3.9.0.rar
2020-04-03
apollo_demo_2.0.bag数据包
2020-01-13
apollo__demo_1.5.bag数据包
2020-01-13
apollo--demo_1.0数据包
2020-01-13
decawave_trek1000_arm2.10_pc3.6.zip
2019-07-22
ZigBee各类传感器模块-例程及使用手册说明.zip
2019-07-19
bazel-0.27.1-installer-linux-x86_64.sh
2019-07-10
Win32DiskImager-0.9.5-install 树莓派和电脑传输文件
2019-02-25
全国大学生电子设计竞赛 培训资料
2018-10-21
CC2530 (zigbee) 中文数据手册完全版
2018-10-05
cc2530蓝牙 PWM 小车
2018-01-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人