- 博客(45)
- 收藏
- 关注
原创 Depth Anything with Any Prior解读
【摘要】本文提出"先验深度任何东西"框架,创新性地融合不完整但精确的度量信息与相对但完整的几何结构,通过从粗到细的流程生成高质量深度图。该方法采用像素级度量对齐和距离感知加权技术预填充先验信息,并设计条件MDE模型进行细化优化。实验表明,该系统在7个真实数据集上表现出卓越的零样本泛化能力,在深度补全、超分辨和修复任务中超越专业方法,尤其擅长处理混合先验场景。该框架支持测试时模型切换,为准确性与效率提供灵活平衡,且能随MDE技术进步持续演进。(149字)
2025-11-08 21:16:45
813
原创 DELTAR: Depth Estimation from a Light-weight ToF Sensor and RGB Image
摘要:DELTAR提出了一种轻量级多模态融合框架,有效结合低分辨率ToF深度传感器与高分辨率RGB图像的优势。通过可变形卷积对齐多模态特征、自适应置信度权重和两阶段深度补全网络,解决了ToF传感器存在的低分辨率、噪声和稀疏性问题。实验表明,该方法在保持轻量化(参数量<1M)的同时,将深度估计误差降低20-35%,并实现30fps实时推理,适用于AR/VR等移动端应用。未来将探索自监督学习和动态场景处理以进一步提升性能。
2025-11-08 19:38:56
869
原创 DeepToF Off-the-Shelf Real-Time Correction of Multipath Interference in Time-of-Flight Imaging ACM
本文提出了一种基于深度学习的飞行时间(ToF)成像多径干扰(MPI)实时校正方法。研究通过将MPI建模为空间变化的卷积过程,设计了一个两阶段训练的自动编码器网络:第一阶段使用无标记真实数据学习深度图像特征表示;第二阶段利用物理仿真生成的合成数据进行监督学习。该方法无需硬件修改,单帧处理仅需10毫秒,在合成和真实场景测试中均表现出色。创新点在于结合物理仿真与深度学习,解决了ToF成像中真实训练数据缺乏的难题,为复杂场景下的实时深度校正提供了实用解决方案。
2025-11-07 23:05:14
928
原创 RADU - Ray-Aligned Depth Update Convolutions for ToF Data Denoising
需按照以下格式组织数据:bash复制代码收起自定义数据集/├── train/│ ├── depth_noisy/ # 含噪声的ToF深度图(.exr)│ ├── depth_clean/ # 对应的干净深度图(.exr)│ └── rgb/ # RGB图像(.png)└── test/└── ... # 同上复制。
2025-10-29 11:51:18
431
原创 ECCV2020_Spatial Hierarchy Aware Residual Pyramid Network for Time-of-Flight Depth Denoising代码复现
通过以上步骤可复现论文中报告的主要实验结果。如需验证消融实验(如W/O Fusion或W/O Refine),只需修改。参数选择对应模型变体。bash复制代码收起。
2025-10-29 11:43:45
293
原创 Unsupervised-Domain-Adaptation复现
遵循以上步骤可完整复现论文中报告的实验结果。如需扩展到其他领域(如VisDA),需调整。参数,并确保数据格式与Office-31一致。
2025-10-29 11:38:13
174
原创 Deep End-to-End Alignment and Refinement for Time-of-Flight RGB-D modules复现
3. 辅助工具安装 Blender 2.7: 官方下载 pbrt-v3-tof: 从 Su et al. 的仓库 编译安装 MatLAB: 需安装 插件(用于处理 EXR 格式渲染结果)二、数据准备1. 下载预生成数据 数据集链接: Google Drive 下载 (~20GB) 下载预训练模型权重 2. 自定义数据生成 (可选)若需生成新数据,按以下流程操作:(2) 生成瞬态渲染(pbrt-v3-tof)(3) 转换为 ToF
2025-10-29 11:31:11
583
原创 用于飞行时间深度去噪的空间层次感知残差金字塔网络
摘要。飞行时间(ToF)传感器越来越多地用于移动设备进行深度传感。然而,噪声的存在,如多路径干扰(MPI)和散粒噪声,降低了ToF成像质量。以前的基于cnn的方法在不考虑场景空间层次结构的情况下去除ToF深度噪声,导致在复杂场景中获得高质量的深度图像失败。在本文中,我们提出了一种空间层次感知残差金字塔网络,称为SHARP-Net,通过充分利用不同尺度的场景几何信息来去除深度噪声。SHARP-Net首先引入了一个残差回归模块,该模块利用深度图像和振幅图像作为输入,逐步计算深度残差。然后,导入残差融合模块,对来
2025-10-21 16:02:42
940
原创 Unsupervised Domain Adaptation for ToF Data Denoising with Adversarial Learning
本文提出了一种基于对抗学习的无监督域适应方法,用于飞行时间(ToF)数据的去噪和多路径干扰(MPI)校正。该方法通过结合粗细CNN架构和生成对抗网络(GAN),利用合成数据进行监督训练,同时通过对抗损失对未标记的真实数据进行无监督适应。创新性地引入噪声深度图和误差图作为鉴别器输入,并采用噪声增强策略提高泛化能力。实验结果表明,该方法能有效减少56%的误差,在真实数据集上显著优于现有技术,包括传统方法和深度学习方案。该方法不仅解决了ToF数据缺乏真实标注的问题,其框架也可推广到其他图像去噪任务。
2025-10-21 11:36:26
471
原创 FDCT: Fast Depth Completion for Transparent Objects RAL 2023
本文提出了一种面向透明物体的快速深度补全框架FDCT,通过创新性地融合局部与全局特征,实现了高效精确的深度恢复。方法采用轻量级U-Net架构,引入跨层快捷方式与融合分支来保留低级特征,设计新型损失函数防止过拟合。实验表明,FDCT在TransCG等数据集上以70FPS运行,精度超越现有方法16%,并显著提升下游姿态估计任务性能。该框架为机器人视觉应用提供了实用的实时深度补全解决方案。代码已开源。
2025-10-20 22:27:30
899
原创 Deep End-to-End Alignment and Refinement for Time-of-Flight RGB-D Module,2019
本文提出了一种端到端深度学习框架DEAR,用于解决现成ToF-RGBD相机模块的两个关键问题:跨模态图像对齐和深度测量细化。针对弱校准条件下的在线对齐需求,作者设计了两阶段光流估计方法,结合ToF深度信息提升RGB与ToF振幅图像的对齐精度。在深度细化方面,改进的ToF-KPN网络通过核归一化和偏置优先策略显著提升了处理多径干扰等误差的能力。为弥补真实数据不足,研究利用计算机图形学工具合成了ToF-FlyingThings3D训练数据集。实验表明,该框架在合成和真实数据上均取得优异性能,联合微调后将平均深度
2025-10-20 21:51:21
1091
原创 Learning Depth Estimation for Transparent and Mirror Surfaces
我们提出了一种无需真实深度标注即可估计透明/镜面(ToM)物体深度的新方法。通过分割ToM物体并用随机颜色修复,利用预训练单目深度网络生成伪标签,再微调网络处理ToM表面。实验表明,该方法在Booster数据集上显著提升了单目(MiDaS/DPT)和立体(RAFT-Stereo/CREStereo)网络的性能。关键创新包括:(1)通过修复诱导网络产生伪标签;(2)设计多色修复中值策略提升鲁棒性;(3)将单目伪标签扩展到立体网络微调。该方法仅需分割标注,大幅降低了数据收集成本,为ToM物体深度估计提供了实用解
2025-10-20 20:01:37
918
原创 Pixel-Perfect Depth with Semantics-Prompted Diffusion Transformers,nips 2025
首先,在训练期间,REPA 使用预训练的视觉编码器对 DiT 标记的隐式对齐是次优的,这使得 DiT 很难有效地利用预训练视觉编码器的语义指导。不同于以前的使用卷积架构的模型,例如,生成模型去噪 U-Net 和判别模型的 DPT,我们的模型纯粹是基于转换器的,没有卷积层。我们的语义提示DiT建立在扩散变压器(DiT)[39]的基础上,因为它在生成建模中的简单性、可扩展性和强大的性能。然而,我们发现获得的语义 e 的大小与我们的 DiT 模型中标记的大小显着不同,这会影响模型的训练的稳定性及其性能。
2025-10-16 21:27:24
1018
原创 numpy谨慎升级
遇到问题了,非常奇怪的bug:TypeError: expected np.ndarray (got numpy.ndarray)先卸载自己numpy,再安装1.26.0版本的numpy。反应过来应该是前两天升级了numpy的原因。
2025-09-26 18:48:13
367
原创 High precision single-photon object detection via deep neural networks,OE2024
单光子成像是一种新兴的传感技术,能够在极端条件下成像和识别远程物体。然而,它面临着几个挑战,例如低分辨率和高噪声,来完成目标检测任务。在这项工作中,我们提出了一个增强的You Only Look Once网络来识别和定位单光子传感生成的图像中的对象。然后,我们在自建单光子数据集和VisDrone2019公共数据集上进行了实验测试所提出的网络。我们的结果表明,我们的网络实现了比基线模型更高的检测精度。此外,它在检测小的单光子物体时具有更高的平均精度。我们的工作有望帮助探索单光子传感的实际应用取得重大进展。
2025-09-25 21:27:56
870
2
原创 ToF相机之flying pixel
然而,随着调制频率的增加,解之间的歧义变得更加困难:这些包裹测量的副作用是混合像素和过滤可以导致在对象边缘形成“飞行像素”[35],这可以产生中间,也称为“webbing”,并在单频系统中观察到,非中间值或展开值与远离前景或背景的值。在传感器像素的立体角范围落在前景和背景的边界的情况下,记录的信号是来自这两个领域的光返回的混合。由于深度对原始通道的非线性依赖性和相位模糊,得到的深度不限于前景和背景深度之间的范围,但可以获得相机深度范围的任何值。因此,超出范围的飞行像素可以被视为深度测量中的异常值。
2025-09-24 19:15:15
1186
原创 ToF-Splatting: Dense SLAM using Sparse Time-of-Flight Depthand Multi-Frame Integration,CVPR2025
ToF-Splatting:首个基于稀疏飞行时间(ToF)深度传感器的3D高斯Splatting SLAM系统。针对移动和AR/VR设备低功耗约束下的极稀疏(如8×8)ToF深度测量,提出创新性多帧集成模块,融合稀疏ToF深度、多视图几何和单目线索生成密集深度图。在ZJUL5等真实数据集上验证表明,相比现有方案显著提升跟踪精度(平均ATE误差<3cm)和重建质量(F-score提升30%)。系统采用三模块架构:跟踪前端估计相机位姿,多帧集成生成监督信号,映射后端通过3D高斯实现场景表示。关键贡献包括面
2025-09-23 22:12:35
884
原创 Deep Unrolled Graph Laplacian Regularization forRobust Time-of-Flight Depth Denoising,SPL2025
本文提出了一种基于图拉普拉斯正则化的深度展开网络(GLRUN)用于飞行时间(ToF)深度图像去噪。该方法通过分析ToF深度噪声特性,构建了包含数据保真项和图拉普拉斯先验的最大后验概率问题。创新性地将解展开为迭代图滤波器,实现参数的数据驱动优化。实验表明,该方法在合成FLAT数据集上MAE降低37.4%,并在真实Kinectv2数据上展现出优异的泛化能力。相比现有方法,GLRUN融合了ToF成像原理与图信号处理知识,通过限制解空间有效抑制了过拟合问题,为ToF深度去噪提供了新的解决方案。
2025-09-23 15:26:24
923
原创 Modeling, analysis, and optimization of randomerror in indirect time-of-flight camera,OE2025
值得注意的是,信号光与环境光的噪声均符合泊松分布。在iToF相机的测距过程中,入射光相位(即真实相位ϕt)与测量相位ϕm之间的差异主要源于相关信号偏离余弦形式[37],这会导致测量精度下降。在通过拟合系统分析相关信号与误差模型之间的关系后,为了验证模型的正确性,我们可以定义噪声通过计算信号Ksgn、Kamb和Kdark的相关系数,确定系统校正结果L=(1+dW(φm)dφm)²。在通过采样点收集电子信号的过程中,通常存在三种典型噪声类型:遵循泊松分布的信号噪声、同样呈泊松分布的环境噪声,以及暗噪声。
2025-09-19 10:46:26
1003
原创 Consistent Time-of-Flight Depth Denoising via Graph-Informed GeometricAttention,cvpr5
本文提出了一种结合图结构建模与几何感知注意力机制的ToF深度数据去噪方法,有效解决了动态场景下深度恢复的噪声抑制和时间一致性问题。通过动态图构建和几何感知注意力模块,显式建模点云几何关系,并引入分层时空一致性约束,在合成和真实数据实验中均取得优于现有方法的效果(RMSE降低至0.048m)。尽管计算效率仍有提升空间,但该方法为ToF深度去噪提供了新思路,未来结合轻量化设计和多模态融合有望推动实时应用落地。
2025-09-17 15:37:02
525
原创 SVDC: Consistent Direct Time-of-Flight Video Depth Completion withFrequency Selective FusionCVPR2025
本文提出了一种名为SVDC的新型视频深度补全方法,用于解决移动设备中dToF传感器产生的稀疏噪声深度图问题。该方法通过多帧融合方案和自适应频率选择性融合(AFSF)模块,结合通道空间增强注意力(CSEA)机制,有效区分高低频区域并选择最优卷积核尺寸。同时引入跨窗口一致性损失函数,显著提升时序一致性并减少画面闪烁。实验证明,SVDC在TartanAir和DynamicReplica数据集上均取得最优精度与一致性。
2025-09-17 15:19:05
731
原创 EDoF-ToF: extended depth of field time-of-flight imaging解读, OE 2021
摘要: iToF相机长期面临“景深-信噪比”矛盾:大光圈(如f/1.4)导致散焦误差,小光圈(如f/8.0)牺牲信噪比。本文提出EDoF-ToF系统,通过软硬件协同设计打破这一局限: 硬件端:AI设计深度不变衍射光学元件(DOE),将传统随深度变化的模糊PSF转换为稳定、紧凑的编码PSF; 软件端:基于已知PSF构建物理模型,利用轻量网络从污染数据中反演高精度深度图与反射率。 实验表明,该系统在f/1.4大光圈下,深度精度媲美f/8.0传统ToF,进光量提升32倍,且能清晰重建复杂边缘与细小结构。这一突破为
2025-07-23 16:08:38
724
原创 Passive Snapshot Coded Aperture Dual-Pixel RGB-D Imaging, CVPR 2024解读
的深度融合,实现了被动快照RGB-D成像的性能突破。,推动被动RGB-D成像走向实用化。后续研究可基于其框架,进一步探索。
2025-07-15 11:04:11
490
原创 WaveMo: Learning Wavefront Modulations to See Through Scattering CVPR2024
WaveMo通过光学调制与深度学习的紧耦合,重新定义了散射成像的范式。其核心价值在于建立可微分的"物理-算法"联合优化空间,为计算光学提供了新的方法论框架。散射介质(如生物组织、雾、浑浊液体)导致光子路径随机化,传统成像系统仅能捕获噪声斑点(speckle pattern),直接成像信噪比趋近于零。基于Mie散射理论与蒙特卡洛光追(MCML),生成多介质(κ ∈ [1, 10] mm⁻¹)、多厚度(d ∈ [1, 5] mm)的训练数据。核心矛盾:光学调制自由度(10^4级以上)与重建效率的权衡。
2025-07-15 10:56:08
510
原创 Latent Space Imaging (潜空间成像) CVPR
【摘要】KAUST研究团队提出潜空间成像(LSI)新范式,颠覆传统相机的工作模式。该方法通过光学前端压缩编码,使传感器直接捕获生成模型的潜空间表示而非原始像素。其核心创新包括:1) 软硬件协同设计,优化光学掩模与数字编码器;2) 利用StyleGAN先验实现高质量重建;3) 在潜空间直接完成分类等下游任务。实验显示,在1:16384压缩比下仍能保持80%的分类准确率。该技术为物联网、隐私保护等场景提供了新的成像解决方案,开创了人工智能视觉系统的新方向。
2025-07-12 09:10:29
655
原创 了解飞行像素过滤器及其工作原理
飞点是错误的深度读数,它们在深度图像中可能并不总是明显,但在 3D 点云中却会显现出来。飞点在飞行时间 (ToF) 相机生成的 3D 点云中显示为错误像素,通常出现在场景中的深度不连续处,尤其是在物体边界处。来自前景和背景的光线可能会在边缘处融合,产生中间的错误深度值,从而导致鬼影像素。
2025-07-11 15:55:41
524
原创 更新vscode后链接远程服务器出现了报错‘无法建立连接:远程主机不满足运行vscode服务器的先决条件’20250408
更新了vscode之后再链接远程服务器出现了报错,如下:在服务器终端运行:最低要求:VS Code 远程开发需要 glibc ≥ 2.28。在服务器终端运行:strings /usr/lib/x86_64-linux-gnu/libstdc++.so.6 | grep GLIBCXX最低要求:VS Code 需要包含 及以上版本。sudo apt update && sudo apt upgrade -ysudo apt install libc6 libstdc++6删除旧的 VS Code 远程服务
2025-04-08 10:47:33
7378
1
原创 masktof代码复现
testadditional/data/filenames可选:从此可选:从此/train.py4. 重建:该笔记本包括一个交互式演示,用于从检查点文件夹加载网络、可视化掩模结构、模拟幅度测量和执行深度重建。
2025-04-03 15:44:40
738
原创 Practical Coding Function Design for Time-of-Flight Imaging代码解读
【代码】Practical Coding Function Design for Time-of-Flight Imaging代码解读。
2025-03-31 18:56:01
314
原创 Practical Coding Function Design for Time-of-Flight Imaging文章解读,CVPR2019
连续波飞行时间(CW-ToF)成像系统的深度分辨率由其编码函数决定。最近,人们对设计新的高性能 CW-ToF 编码功能越来越感兴趣。然而,这些功能通常以硬件不可知的方式设计,即不考虑实际的设备限制,如带宽、源功率、数字(二进制)函数生成。因此,尽管理论改进,但这些函数的实际实现仍然是一个挑战。我们提出了一种约束优化方法来设计符合硬件约束的实际编码函数。优化问题是非凸的,搜索空间大,没有已知的全局最优解。为了使问题易于处理,我们设计了一种迭代交替最小二乘算法,以及约束的凸松弛。
2025-03-13 19:51:28
948
原创 What Are Optimal Coding Functions for Time-of-Flight Imaging?文章解读,TOG2018
连续波飞行时间(C-ToF)成像系统实现的深度分辨率由它使用的编码(调制和解调)函数决定。几乎所有当前的 C-ToF 系统都使用正弦或平方编码函数,导致深度分辨率有限。在本文中,我们提出了一个数学框架,用于在几何直观的空间中探索和表征 C-ToF 编码函数的空间。使用这个框架,我们设计了基于超立方体图上的哈密顿循环的新型编码函数族。给定固定的总源功率和采集时间,与目前最先进的方法相比,新的哈密顿编码方案可以实现高达一个数量级的分辨率,特别是在低信噪比(SNR)设置中。
2025-03-13 19:34:21
879
原创 Adaptive Target Profile Acquiring Method for Photon Counting 3-D Imaging Lidar
直接检测的三维成像激光雷达能够使用Geiger模式雪崩光电二极管和时间相关单光子计数技术远距离获取非合作目标的深度图像。然而,传统的三维成像激光雷达具有较长的数据采集时间。本文提出了一种空间自适应方法,通过利用深度域中的目标和背景之间的不连续,快速获得三维成像激光雷达的目标轮廓。我们策略背后的想法是使用自适应扫描步骤来定位深度边界附近的区域,并且只对这些区域执行精细扫描。与传统的高分辨率扫描激光雷达相比,仅对这些特定区域进行微调可以确保恢复精度,同时消耗更少的数据采集时间。
2025-03-12 15:01:39
871
原创 激光雷达三维成像研究进展(特邀)文章解读,激光与光电子学进展202401
激光雷达三维成像相比二维成像具有信息丰富、主动性好、抗干扰能力强等优势,已广泛应用于遥感侦察、无人驾驶 、航 空 航 天 等 多 领 域。近 年 来 ,激 光 雷 达 三 维 成 像 发 展 迅 速 ,一 方 面 ,以 APD 阵 列 器 件 为 典 型 核 心 器 件 的 制 造 能 力 增强 ,激 光 雷 达 的 成 像 效 率 得 到 明 显 提 升;另 一 方 面 ,随 着 三 维 成 像 方 法(扫 描/非 扫 描)的 不 断 改 进 ,其 综 合 性 能 也 得 到 突飞猛进的发展。
2025-03-11 20:28:52
1744
原创 Phasor Imaging: A Generalization of Correlation-Based Time-of-Flight Imaging文章解读,ACM2015
and摘要:在基于成像系统中,具有时变强度的光源照亮场景。由于全局照明,传感器接收到的时变辐射是沿多条路径接收的光的组合。从接收到的辐射中恢复场景属性(例如场景深度)需要分离这些贡献,这具有挑战性,因为全局照明的复杂性和亮度的额外时间维度。我们提出了相量成像,这是一个使用的框架。。我们研究了我们使用这一观察结果来开发两种新颖的场景恢复技术。首先,我们提出了一种基于ToF的,该技术对全局照明引起的误差具有鲁棒性。其次,我们提出了一种。这两种技术都需要捕获多达。
2025-03-04 14:08:42
994
原创 Establishing equivalent circuits of mounted, high-power VCSEL arrays for iToF cameras文章解读,OL2024
近年来,固态间接飞行时间(iToF)相机因其出色的三维(3D)深度测量能力而引起了学术界和工业界的极大兴趣。向场景发送广角激光,由高分辨率光电探测器阵列记录从物体后向散射的光,用于高分辨率和精度的深度成像[1]。该技术具有许多优点,包括更高的系统完整性和长期可靠性[2]。特别是当与传统的扫描光探测和测距(LiDAR)传感器相比,不涉及机械扫描组件,这意味着传感不受振动的影响,并且由于整个传感器阵列同时收集信息,获得了更高的数据吞吐量。
2025-03-04 10:03:32
708
原创 Subpixel Depth Accuracy with a Time of Flight Sensor using Multimodal Gaussian Analysis,I3EPress2008
现代移动机器人使用多种类型的距离传感器进行2D或3D中的避障和映射。对于 2D 映射,选择的传感器是激光测距仪,其特点是光束非常薄。由于SONARs的采样缓慢和相对不准确,许多像SONARs这样的宽波束传感器在移动机器人中并不受欢迎。随着强调转向 3D 映射和定位,其他传感器来自 Vogue——其中它们是基于近 IR 范围的立体相机和飞行时间 (TOF) 传感器。有关两个此类商业可用传感器的概述,请参见表 I。表1.3D传感器的比较这些传感器将视场锥映射到Nr × Ncpixel-array或图像。
2025-02-28 21:22:24
1235
原创 Capturing Time-of-Flight Data with Confidence文章解读,CVPR2011
1. 研究背景与核心问题ToF(Time-of-Flight)传感器通过测量光信号的往返时间计算深度,但受多路径干扰噪声和环境光干扰影响,导致深度数据中存在飞点(Flying Pixels)等异常值。传统方法依赖后处理滤波(如中值滤波),但难以区分真实信号与噪声。本文提出一种基于置信度的ToF数据捕获方法,直接在数据采集阶段量化深度值的可靠性,提升原始数据质量。2. 核心方法与创新点(a) 创新点1:置信度指标(Confidence Metric)核心思想。
2025-02-27 16:30:31
843
原创 COLOR-GUIDED FLYING PIXEL CORRECTION IN DEPTH IMAGES文章解读,MMSP2024
提出了一种校正飞行时间(ToF)传感器数据中飞行像素的新方法。当来自前景和背景物体的信号到达相同的传感器像素时,就会出现飞行像素(FP)伪影,导致在两个物体之间的空间浮动中进行自信但不正确的深度估计。商用RGBD相机除了RGB相机外,还有一个由ToF传感器组成的补充设置来捕捉深度。我们提出了一种校正FPs的新方法,即利用RGB- d相机中对齐的RGB和深度图像来估计FPs的真实深度值。我们的方法在每个点周围定义了一个3D邻域,代表一个“视场”,反映了ToF相机的采集过程。我们提出了一种两步迭代校正算法。
2025-02-26 09:51:32
976
原创 Mask-ToF: Learning Microlens Masks for Flying Pixel Correction in Time-of-Flight Imaging文章解读2021CVPR
核心思想是使用硬件方式(掩膜)在测量时就减少飞点效应导致的测量值误差。原理是阻挡一部分从物体返回的光线更有利于确定传感器像素上接收到的光来自于前景还是后景。掩膜图案的确定涉及到通光亮和减少飞点的权衡,本文选择和神经网络结合让网络去学习最优的掩码图案。最终效果确实蛮好的,在仿真数据集和真实数据上对飞点效应都有不错的改善。
2025-02-25 21:11:26
826
原创 DepthAnyting本地复现
(2025.01.22)部署环境:windows本地部署一直报错,以为是python版本不对,使用了3.8和2.10都不行,还是报错如下:(2025.01.23)换到服务器重新部署无语,之前指令复制了两遍,可能是这个原因导致了下载不成功。。。。重新使用如下指令安装真的很慢。。。下午继续。。。有点奇怪 用之前安装好的又可以了,还是得有耐心仔细看报错。。。中间有报错:'ColormapRegistry' object has no attribute 'get_cmap'
2025-02-10 11:25:12
837
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅