自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

翻译 Omniverse Developer :Linux Troubleshooting 官方文档翻译 Linux环境问题解决方案

在 Linux 上运行 Omniverse-kit 或 Omniverse-Create 时解决问题的说明。

2024-08-20 15:44:46 318

原创 X-anylabeling如何手动加载(自定义)模型 : 以Segment Anything 为例

手动加载模型的需求,主要分为三种情况,情况一:因各种网络原因无法加载,软件内置的模型加载方法无法使用情况二:内置模型在你的应用场景效果不好,你已微调了这个模型(没有修改结构),想加载进去帮助标注情况三:想添加软件暂不支持的自定义模型进入软件前两种对应的解决方案手动下载模型文件至软件默认读取位置, 或者以自定义模型形式加入,或者让你的标注软件走你的代理以自定义模型形式加入第三种需求,本文暂不涉及,后续会更新。

2024-08-20 10:13:30 4346 5

原创 激光雷达标定教程:lidar2lidar,OpenCali, ROS

在多传感器融合系统中,各个传感器的数据需要在同一个坐标系中进行处理和分析。标定的主要目的是确定不同传感器之间的相对位置和方向,以便将它们的数据准确地整合到一起。本文中将以两个单线激光之间的标定作为案例,通过ROS进行数据获取发布,将点云信息转换成pcd文件格式,使用OpenCali进行手工标定。

2024-08-17 14:11:17 2121

原创 迭代深度学习模型时总被人遗忘的一角:数据集

做深度学习应用是以结果为导向的,模型改结构、改超参数等调优不是唯一能够使模型在目标场景好用的方法,不要忘了数据集上也应该下功夫。

2024-08-15 21:04:05 734

原创 如何自制深度学习图像数据集:以X-Anylableing半自动标注目标检测为例

如何制作属于自己的数据集

2024-08-13 20:06:08 2346

X-anylabeling标注软件CPU版 v2.3.6

不方便在github上下载的,可以在这里下载。 包含Linux和Win两个平台的CPU版本软件,开箱即(急)用

2024-08-16

Segment-Anything.pdf

新一代基础模型:Segment Anything 研究内容: 这项研究提出了一个名为“Segment Anything”的项目,旨在为图像分割建立一个通用的基础模型。研究团队设计了一个可提示的分割任务,并开发了一个名为“Segment Anything Model”(SAM)的模型。该模型通过高效的数据收集机制,被训练在一个包含超过10亿个掩码和1100万张图像的庞大数据集上。模型设计为可提示的,能够在接收到各种形式的提示(如点、框、文本)时,生成对应的图像分割掩码。此外,还开发了一个数据引擎,用于自动化地生成和收集训练数据。 研究意义: 泛化能力增强:通过提示工程,SAM能够实现零样本迁移,适用于未见过的数据分布和任务,这拓宽了模型的应用范围。 数据集贡献:SA-1B数据集是目前最大的分割数据集,为计算机视觉领域提供了丰富的训练资源。 推动基础模型研究:该项目展示了在计算机视觉中应用基础模型的潜力,为未来的研究提供了新的方向。 实用性提高:模型可以在实时交互中使用,并且能够处理提示中的歧义,使其在实际应用中更加灵活和高效。

2024-08-16

Vision-Language Models for Vision TasksA Survey.pdf

这篇论文对视觉任务中的视觉语言模型(VLMs)进行了系统的综述。论文主要讨论了视觉识别中传统以深度神经网络(DNNs)为基础的模式面临的挑战,以及VLMs如何通过从大规模的图像-文本对中学习丰富的视觉语言关联来解决这些问题。VLMs能够在不同的视觉识别任务中实现零样本预测,而无需为每个任务单独训练模型,这显著简化了过程。

2024-08-16

Self-Consuming Generative Models Go MAD 论文

这篇论文研究了在生成模型的训练过程中使用合成数据所引发的“自食性”循环现象,并将其称为“模型自噬障碍”(Model Autophagy Disorder,MAD)。研究表明,如果每代训练中缺乏足够的新鲜真实数据,未来的生成模型质量(精度)或多样性(召回率)会逐渐下降。 研究背景:生成AI技术的快速发展使得合成数据在图像、文本等领域广泛应用。由于生成模型的训练数据通常来自互联网,当前的AI模型实际上已经在逐渐增加的合成数据上进行训练,从而形成了一种自食性循环。 研究挑战:自食性循环可能导致未来生成模型的质量和多样性下降,尤其是在缺乏足够新鲜真实数据的情况下。研究者需要理解这种循环的具体影响,并找到避免这种现象的方法。 方法:论文中定义了三种自食性循环模型:完全合成循环、合成增强循环和新鲜数据循环。每种模型反映了不同的训练数据组合方式。研究还考虑了生成数据的采样偏差对自食性循环的影响。

2024-08-16

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除