计算机视觉
文章平均质量分 88
哆啦叮当
我有四次元口袋
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
SuperGlue:基于图神经网络的特征匹配技术解析
SuperGlue是一种创新的神经网络模型,通过图神经网络与注意力机制实现高效特征匹配。它作为前端特征提取与后端姿态估计的中间层,融合位置与外观信息,采用多路图神经网络进行自注意力和交叉注意力处理,并通过最优匹配层解决部分匹配问题。该方法在精度和效率上均优于传统方法,兼容多种特征提取器,适用于SLAM和三维重建等任务。原创 2025-06-30 20:28:33 · 881 阅读 · 0 评论 -
Super Point 特征提取网络
SuperPoint采用"预训练-自标注-联合训练"的三步闭环方法。首先,MagicPoint在合成几何图形数据上预训练,解决兴趣点定义模糊问题。然后通过单应性变换生成真实图像的伪标签,实现域适应。最后联合训练共享编码器的双分支网络,同时优化兴趣点检测和描述符生成。该方法在合成数据上mAP显著优于传统算法,并通过自标注有效迁移到复杂真实场景,实现了端到端的特征点检测与匹配。原创 2025-06-30 20:20:00 · 536 阅读 · 0 评论 -
基于CNN的掩码自编码器微调用于分类任务
对之前做的基于CNN的掩码自编码器做进一步改造,实现分类下游任务原创 2024-06-18 20:34:51 · 1388 阅读 · 0 评论 -
计算机视觉基础课程知识点总结
计算机视觉基础课程知识点总结原创 2024-06-12 12:43:44 · 2198 阅读 · 0 评论 -
DiT解读:当Diffusion遇上Transformer
DiT论文解读,Diffusion结合Transformer,前置知识讲解,sora技术猜测原创 2024-04-20 14:48:54 · 5850 阅读 · 0 评论 -
动手小实验,用CNN来构建Maseked Autoencoder
CNN实现带掩码的Autoencoder,利用手写数字数据集做实验原创 2024-03-10 11:52:24 · 1347 阅读 · 0 评论 -
从ViT到MAE,transformer架构改造Autoencoder
介绍Vision Transformer(ViT)和Masked Autoencoder(MAE)两种视觉处理模型的关键概念和工作原理。ViT利用自注意力机制捕获图像全局信息,通过分块处理图像来避免CNN局部感知问题;而MAE是ViT的改进版,将图像patch转化为序列形式,结合编码器和解码器学习图像特征和生成清晰图片。原创 2024-02-24 11:52:51 · 2669 阅读 · 0 评论 -
Autoencoder深度学习中的无监督学习神经网络
文章介绍了自动编码器Autoencoder,包括基本原理、工作流程和应用,以及它的变体:稀疏自动编码器、去噪自动编码器和变分自动编码器。自动编码器是一种无监督学习模型,用于学习数据有效表示,在特征学习、降维、图像去噪和生成模型等领域有广泛应用。原创 2024-02-24 11:12:17 · 1164 阅读 · 0 评论 -
CNN卷积神经网络识别验证码
用卷积神经网络训练可以帮你识别验证码的ai原创 2023-08-23 11:03:10 · 1482 阅读 · 1 评论 -
python-opencv实现车道线识别canny+Hough+RANSAC
基于python-poencv实现车道线检测,机器视觉技术,利用到了边缘检测,霍夫变换,RANSAC等技术原创 2023-07-10 18:44:43 · 2919 阅读 · 0 评论
分享