CVPR 2025 最佳论文候选出炉!AIGC、SLAM、3D 视觉齐飞!论文大合集整理,含代码!

部署运行你感兴趣的模型镜像

CV方向的硕博士一定要看啊,作为计算机视觉领域的顶级盛会,CVPR堪称论文界的“奥斯卡”,每一篇被录用的论文都代表着行业前沿的方向,CVPR 2025收到了创新高的13008份论文,比CVPR 2024增加了12.8%,共录用了2878篇论文,接收率为22.1%。

目前 CVPR 2025 录用的全部论文已正式公开,研究者和爱好者们可以提前一睹为快,这些论文涵盖了从图像识别、目标检测、三维重建,到视觉语言模型、生成模型等前沿方向,内容丰富、干货满满。

📃1.Molmo and PixMo: Open Weights and Open Data for State-of-the-Art Vision-Language Models

📃2.Descriptor-In-Pixel : Point-Feature Tracking for Pixel Processor Arrays

📃3.The PanAf-FGBG Dataset: Understanding the Impact of Backgrounds in Wildlife Behaviour Recognition

📃4.FoundationStereo: Zero-Shot Stereo Matching

📃5.VGGT: Visual Geometry Grounded Transformer

📃6.MegaSaM: Accurate, Fast, and Robust Structure and Motion from Casual Dynamic Videos

📃7.TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion

📃8.Navigation World Models

📃9.GlobustVP:Convex Relaxation for Robust Vanishing Point Estimation in Manhattan World

📃10.UniAP: Unifying Inter- and Intra-Layer Automatic Parallelism by Mixed Integer Quadratic Programming

【为了方便大家查阅与学习,主包已第一时间将2025论文下载整理,包含2025年论文综述、WACV、CVPR】

2025年CVPR可复现论文合集,含代码https://docs.qq.com/doc/DQ25HbWt6WmdOZEta?u=7f01826fa3f140bb8e36e875087997e8&nlc=1

 

今年CVPR依然是被genAI, 3D和多模态霸榜。相较于前两年,一个明显的trend是有更多工作做更可控、更符合视觉系统的架构。

 

此外,模型效率, 鲁棒性和embodiedAI也有更多的关注,Benchmark的文章多了很多,虽然是个好事,但很多组做这个是因为算力不足,质量参差不齐。下面具体总结一下

方向一:Diffusion Model 2.0

主要发展方向是高效、可控、多模态。

包括:

▪️3D和视频:长视频生成、一致性生成、3D场景生成。

▪️编辑:高精度编辑,语义编辑。

▪️对下游任务的数据增广

🔹相关论文:FlexiDiT,LinGen,StreamingT2V,Scene Splatter,Fine-Grained Erasure,AeroGen,GenDeg等

 

方向二:3DGS

NeRF虽然没凉,3DGS基本快成了3D视觉的新标配。

更高效、低算力需求、和很好的泛化性,全面接管了从novel view synthesis到城市级scene rendering等多个任务。

包括:

▪️高效可扩展,低渲染时间

▪️动态物体建模

▪️稀疏视角与镜面反射等问题

🔹相关论文:FlashGS, DashGaussian,AniGS, RigGS,DeSplat等

 

方向三:多模态和video agent

Video-grounded multimodal,做理解、生成和交互一体,VLM as the system。

包括:

▪️增强的推理与交互能力

▪️缓解幻觉

▪️Eval

🔹相关论文:InteractVLM,Insight-V,CoT-VLA,Antidote,Nullu,MLLM-as-a-Judge等

方向四:公平、可信AI,AI4science

更多的工作应用在了各行各业,生物、认知科学等。

虽然大厂都能通过data driven在这些任务上做得很好,还是有很多benchmark和用knowledge injection的工作也做得不错。比如NSD-Imagery, UniPhy,Science-T2I等。

 

【纯干货】深度学习目标检测研究生如何用一个月快速水一篇二区论文?基础理论+数据集处理+实验设计一口气说清楚!

研究生不会写SCI论文?直接套用这些模式就行了!保姆级CCF/SCI论文写作思路+创新点方案+文献整理套路+实验数据分析!硕博士皆适用,建议收藏!

发论文别太老实!研究生“水”论文最实用方法是网络缝合模块!套用这200+即插即用模块代码,大论文小论文轻松涨点!

 

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

03-13
### CVPR 会议与最新研究 CVPR计算机视觉与模式识别会议)作为计算机视觉领域最具影响力的学术会议之一,每年都会吸引全球顶尖研究机构和企业提交量高质量论文[^1]。该会议不仅展示了最新的研究成果和技术进步,还促进了学术界和工业界的交流。 对于即将举行的 **CVPR 2024**,已经公布的部分接收论文名单显示了多个前沿主题的研究进展。其中一项值得关注的技术是 **3D 高斯散射 (3D Gaussian Splatting)**,这项技术可能在三维重建和渲染方面带来新的突破。 为了方便研究人员和爱好者获取这些最新成果,有资源汇总了 CVPR 2024 所有论文的题目与摘要,并提供了中文翻译版本,帮助家更好地理解和跟踪计算机视觉与模式识别领域的最前沿研究[^2]。具体链接如下: - [CVPR 2024 论文合集](https://mbd.pub/o/bread/ZpeYmplt) 此外,在过去的会议上也出现了许多重要的工作,例如关于 Transformer 解释性的研究——《超越注意力可视化的 Transformer 可解释性》探讨了如何更深入理解 Transformer 模型的工作机制[^3]。 通过上述资源可以了解到当前计算机视觉领域的热点方向以及未来发展的趋势。 ```python import requests from bs4 import BeautifulSoup def fetch_cvpr_papers(url): response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') papers = [] for item in soup.find_all('div', class_='paper-item'): title = item.find('h3').text.strip() abstract = item.find('p', class_='abstract').text.strip() papers.append({'title': title, 'abstract': abstract}) return papers[:5] url = "https://mbd.pub/o/bread/ZpeYmplt" papers = fetch_cvpr_papers(url) for paper in papers: print(f"Title: {paper['title']}\nAbstract: {paper['abstract']}\n---\n") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值