- 博客(22)
- 资源 (1)
- 收藏
- 关注
原创 【carlar仿真平台】
本文探讨了CARLA仿真平台中深度图处理的关键技术。通过分析多个GitHub问题讨论,总结了深度相机数据的读取方法:使用OpenCV读取深度图像后,通过对数深度转换公式将像素值转换为实际距离(depth_in_meters = np.exp(normalized_depth * np.log(max_depth)))。同时介绍了深度相机的配置方法,包括蓝图获取、空间变换设置和数据保存方式(采用LogarithmicDepth色彩转换器)。此外还提及了鱼眼镜头的开发进展。这些技术要点为CARLA平台中深度数据
2025-12-22 00:10:14
872
原创 【径向多项式鱼眼相机模型与OpenCV鱼眼模型】
摘要: OpenCV鱼眼模型基于等距投影假设,通过低阶畸变系数修正,适合标准鱼眼镜头,具有易用性和实时性优势。径向多项式模型采用通用多项式拟合投影关系,无固定投影假设,支持高阶参数,能更精准描述非标准镜头特性,但计算复杂度较高。选择建议:常规应用优先OpenCV模型;高精度或非标场景(如自动驾驶、VR)推荐径向多项式模型。两者核心差异在于投影建模方式与灵活性。(150字)
2025-12-08 18:48:00
861
原创 【自动驾驶感知-RoboSense鱼眼数据集3D边界框可视化】
本文介绍了RoboSense自动驾驶鱼眼数据集及其3D边界框可视化方法。该数据集包含超过133K同步多模态数据(相机、激光雷达和鱼眼相机),支持第一人称机器人感知研究。通过建立3D边界框投影算法,实现了从鱼眼相机视角的3D目标可视化。代码展示了如何将3D边界框从世界坐标系转换到鱼眼图像坐标系,并绘制3D包围盒。该方法采用特殊处理应对鱼眼镜头的畸变特性,为近场3D感知和预测提供了新的匹配标准。数据集已脱敏处理,并定义了6项任务基准,推动自动驾驶感知技术发展。
2025-11-30 22:37:47
550
原创 【SynWoodScape 激光雷达文件内容分析】
SynWoodScape激光雷达数据文件包含点云坐标、语义标签和实例ID等关键信息。数据结构包含三维坐标点、语义分类标签(如道路或车辆)、实例标识(区分不同对象)、帧序号、时间戳、扫描角度、通道数和坐标变换矩阵。其中点云坐标用于空间定位,语义标签和实例ID支持语义分割与实例分割任务,时间戳和帧号用于多传感器同步,变换矩阵实现坐标系转换。这些结构化数据为自动驾驶中的环境感知和对象识别提供了基础支持。
2025-11-18 18:42:50
310
原创 【cudnn报错】RuntimeError: cuDNN version incompatibility
**【摘要】**PyTorch运行报错"cuDNN版本不兼容",原因是编译时依赖cuDNN 8.5.0但运行时检测到8.2.1。解决方案:1) 清除旧版环境变量,强制使用PyTorch自带cuDNN;2) 彻底卸载系统旧版cuDNN;3) 降级安装匹配版本的PyTorch。推荐通过设置LD_LIBRARY_PATH优先使用conda环境内的cuDNN库,并验证版本号应为8500(对应8.5.0)。典型成功配置为PyTorch 2.0.0+CUDA 11.8组合。
2025-11-08 10:56:34
335
原创 【3D占用预测occ体素标签下采样】
摘要 该代码实现了一个 语义场景补全(SSC)任务的标签下采样函数,将高分辨率体素标签(如240×144×240)降采样为低分辨率(如60×36×60,降采样率=4)。核心功能是: 处理空/遮挡区域:当4×4×4体素块中空/遮挡体素占比>95%时,输出为0(空)或255(遮挡) 保留语义信息:对于有效区域,采用多数表决机制,选择出现频率最高的语义类别 高效计算:通过数学映射遍历体素,避免使用meshgrid,适用于大规模3D数据 该函数常用于SSC任务中降低标签分辨率以匹配网络输出,同时保留关键语义和
2025-11-06 16:26:57
718
原创 【KITTI 和 nuScenes数据集对比】
KITTI与nuScenes数据集对比分析 本文对比了自动驾驶领域两个主流数据集KITTI和nuScenes的关键参数差异: 硬件配置:KITTI使用奥迪A6搭载Velodyne HDL-64E激光雷达(安装高度1.73米),nuScenes采用日产NV200/特斯拉Model 3搭载VLP-32C/HDL-32E激光雷达(安装高度1.85米) 坐标系差异: KITTI以激光雷达为中心,采用右手坐标系 nuScenes以车辆后轴地面点为中心("ego frame"),所有传感器外参均基于
2025-10-14 18:54:51
932
原创 【符号距离函数SDF+体积渲染预测出深度图和3D占用体素】
技术方案可以同时预测每个相机的深度图和三维占用结果。这种统一表示正在成为自动驾驶感知的新标准,为L4级系统提供比传统点云/深度图更完整的3D环境理解能力。是表面厚度阈值(通常0.05-0.1m)注:占用IoU计算阈值为0.1m的体素网格。:原始NeRF式渲染需要百万级采样。
2025-08-05 20:45:01
861
原创 【自动驾驶中深度估计&3D Occupancy占用预测】
随着NeRF等隐式重建技术的发展,二者边界正逐渐模糊——新一代方法(如SurroundOcc)可直接从图像端到端输出稠密占用网格,同时满足精度和效率需求。都是理解环境几何结构的关键技术,但二者在目标、输出形式和应用场景上存在本质差异。✅:完全支持 ⚠️:部分支持 ❌:不支持。在自动驾驶感知系统中,
2025-08-05 19:04:51
800
原创 【pip报错:bash: /opt/conda/bin/pip3: No such file or directory】
摘要:用户遇到pip命令报错"bash: /opt/conda/bin/pip3: No such file or directory",原因是pip安装在用户本地目录而非conda环境。解决方法:1)通过python3 -m pip install --upgrade pip更新pip;2)将pip安装路径/home/xxx/.local/bin添加到环境变量PATH中(临时或永久修改配置文件)。这能确保系统正确找到pip命令。
2025-07-19 16:25:48
317
原创 【yolov8优化器设置】
在图像分类任务中使用迁移学习时,冻结主干网络(Backbone)并只训练分类头(Classification Head)是一种常见的策略。这种策略可以快速调整模型以适应新的数据集,同时利用预训练模型在大规模数据集上学习到的特征。以下是一些关于学习率和优化器配置的建议,以帮助你训练出效果更好的模型。
2025-04-28 09:47:36
1523
原创 【最新轻量级主干网络Rewrite the Stars】
StarNet在ImageNet-1K验证集上的性能超过了多种现有的高效模型,例如MobileNetv3和EdgeViT,同时在iPhone 13和CPU上的运行速度分别是EdgeViT-XS的3倍和2倍。作者希望这项工作能够激发未来在多个任务上的进一步探索。:论文讨论了星操作在高效网络设计中的潜力,并提出了StarNet作为概念验证模型,展示了其在保持简洁性的同时如何超越其他精心设计的高效模型。:通过大量实验,包括决策边界的可视化和在没有激活函数的情况下网络性能的影响,进一步验证了星操作的有效性。
2024-04-22 16:37:21
1640
1
原创 【笔记—特征点检测和匹配】
第二个参数nonmaxSuppresiion:布尔值,默认值为true,表示是否使用非极大值抑制,如果为true则当某个中心像素点的灰度值不是其邻域中的最大值时,则将其淘汰掉,只保留在邻域中是最大值的中心像素点;在OpenCV中,已经封装好了FAST算法的API,也就是FastFeatureDetector这一个类。第三个参数DetectorType:检测邻域类型,有TYPE_5_8 、TYPE_7_12 、TYPE_9_16这几种可选类型,默认值为TYPE_9_16。
2023-08-23 12:46:57
259
原创 【Opencv && C++ 报错记录以解决方案】
Opencv && C++ 报错记录以解决方案按以下方法win10配置vscode opencv c++ 环境报错:https://blog.youkuaiyun.com/qq_45022687/article/details/120949170报错:E:\c++_workspace\project02\cpp\test02.cpp:5:10: fatal error: opencv2/opencv.hpp: No such file or directory解决:按F5 或者ctrl+F5
2023-08-17 09:42:23
396
1
原创 【vscode 连接远程服务器 中的docker】
参考:https://www.cnblogs.com/IllidanStormrage/articles/16360257.html。注意:如果关掉这个docker容器,要记得重新运行 ssh : /etc/init.d/ssh restart。设置ssh密码, 注意:vscode连接docker时的密码,就是这里配置的密码,而不是连接远程服务器的密码。远程服务器已完成docker安装,并启动容器。配置容器的ssh和vim等工具。启动docker中的ssh。完成容器ssh等相关配置。
2023-06-25 10:16:05
947
原创 【mmclassifacition训练和测试】
运行tools/analysis_tools/get_flops.py可计算模型参数量和浮点数。运行tools/deployment/test.py可测试onnx模型推理结果。
2023-05-18 13:46:00
316
1
原创 【mmclassfication项目学习】
可以使用 python tools/misc/print_config.py /PATH/TO/CONFIG 命令来查看完整的配置信息,从而方便检查所对应的配置文。
2023-04-24 23:07:30
304
1
robosense-lidar-occ-processed-data-20230906.tar.gz.ac
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.ab
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.aa
2025-11-24
processed-data-20231011-SWEEPER-001-robscene-7.zip
2025-11-13
train-Town01-Opt-ClearNoon-2024-09-23-11-44-45.zip
2025-12-28
NeRF-pytorch-pretrained-models-20251211T160459Z-3-001.zip
2025-12-12
r101-dcn-fcos3d-pretrain.pth
2025-12-09
robosense-lidar-occ-processed-data-20230906.tar.gz.ai
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.ag
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.af
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.aq
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.ap
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.an
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.as
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.ar
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.ao
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.al
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.am
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.at
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.aj
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.ak
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.ah
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.ae
2025-11-24
robosense-lidar-occ-processed-data-20230906.tar.gz.ad
2025-11-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅