2018-2019顶会论文与github热门项目整理

本文精选了2019年顶级学术会议的论文,涵盖CVPR、ICLR、ACL等多个领域,包括图像表征学习、实例分割、时尚数据集、自适应优化算法、序列到序列模型、主动学习、深度学习优化等方面的研究成果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一.CVPR2019论文分类汇总(CV)

链接:http://bbs.cvmart.net/topics/302/cvpr2019paper

二.ICLR2019论文排名汇总

 链接:https://chillee.github.io/OpenReviewExplorer/index.html?conf=iclr2019

最佳论文:Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks

本文提出通过对神经元排序的方式添加此类归纳偏置;master input 向量和遗忘门确保在给定神经元更新时,紧随其后的所有神经元也都得到更新。这一新型循环架构 ordered neurons LSTM (ON-LSTM) 在四种不同任务上获得了优秀性能,分别是:语言建模、无监督解析、目标句法评估和逻辑推理。

论文链接:https://openreview.net/forum?id=B1l6qiR5F7

 

三.ACL2019收录论文列表(NLP)

链接:http://www.acl2019.org/EN/program.xhtml

四.ACL2018收录论文列表(NLP)

链接:https://acl2018.org/programme/papers/

论文解读:https://zhuanlan.zhihu.com/p/61303661

五.2018各会议热门论文

链接:https://github.com/zziz/pwc#2018

六.2019深度学习论文top

 计算机视觉领域(CV)

1.基于PyTorch Geometric的快速图像表征学习

该文研究介绍了PyTorch Geometric——一个基于PyTorch的不规则结构化输入数据(如图形、点云和流形)深度学习库。除了通用的图形数据结构和处理方法,PyTorch Geometric还包含了各种最新发布的关系学习方法和3D数据处理方法。利用稀疏 GPU 加速,提供专用的 CUDA 内核,并为不同大小的输入样本引入高效的小批量处理,通过这些方法,PyTorch Geometric 实现了很高的数据吞吐量。

(1)github:https://github.com/rusty1s/pytorch_geometric

(2)论文链接:https://arxiv.org/abs/1903.02428v2

2.Mask Scoring R-CNN

华中科技大学的这篇文章针对这个问题进行了研究,他们提出了一种新的打分方法:蒙版得分(mask score)。不仅仅直接依靠检测得到分类得分,Mask Scoring R-CNN模型还单独学习了一个针对蒙版的得分规则:MaskloU head。同时考虑分类得分和蒙版得分,MS R-CNN就能更加公正地评估算法质量,提高实例分割模型的性能。

(1)github:https://github.com/zjhuang22/maskscoring_rcnn

(2)论文链接:https://arxiv.org/abs/1903.00241v1

3.DeepFashion2:用于服装图像检测、姿势估计、分割和重新识别的时尚数据集

DeepFashion2是一个综合时尚数据集,它拥有491k张流行服饰图片,既有卖家秀,也有买家秀。同时,801k种服装在图像中被标注了出来。这个数据集还提供了873k个商业-消费者图像对。DeepFashion2的训练集包含391k张图片,验证集有34k张图片,测试集则分到了67k张图片。所以,用它来完成衣服检测、姿势估计、分割和检索这样的任务再合适不过了。

(1)github:https://github.com/switchablenorms/DeepFashion2

(2)论文链接:https://arxiv.org/abs/1901.07973v1

4.新的自适应优化算法AdaBound

AdaBound是由北大、浙大等名校学霸提出的全新优化算法,是Adam和AMSGrad的新变体,兼具Adam和SGD两者之美,速度快且性能佳。

(1)github:https://github.com/Luolc/AdaBound

(2)论文链接:https://openreview.net/forum?id=Bkg3g2R9FX

二.自然语言处理领域(NLP)

1.Lingvo:用于序列到序列模型的模块化和可扩展的框架

Lingvo是Google出品的一个Tensorflow框架,为协作深度学习研究提供完整的解决方案,侧重于序列到序列模型。Lingvo模型具有模块化、易扩展的特点,实验配置集中且高度可定制。该框架支持分布式训练和量化推理,包含大量实用程序,辅助函数和最新研究的现有实现。

(1)github:https://github.com/tensorflow/lingvo

(2)论文链接:https://arxiv.org/abs/1902.08295v1

 

2.ALiPy: Active Learning in Python

因为有监督的机器学习方法通常需要大量带标签的例子来进行模型训练。然而,在许多实际应用中,有大量的未标记数据,这大大增加了机器学习的成本。而主动学习能通过反复迭代选出最有价值的数据,只将有价值的数据加入训练集,从而降低了标记成本。这篇论文主要介绍了ALiPy的各个模块和使用方法。在工具箱中,学习框架的每个组件都有多个可选项,包括数据处理、主动选择、标签查询、结果可视化等。除了20多种最先进的主动学习算法的实现之外,ALiPy还支持用户轻松配置和实施自己的方法。

(1)github::https://github.com/NUAA-AL/ALiPy

(2)论文链接:https://arxiv.org/abs/1901.03802v1

3.Dropout是SDR的特殊情况:更快,更准确的深度学习

SDR把神经网络中的每个权重重新定义为随机变量,并且为随机变量中的每个参数提供了更新规则。而Dropout就是一个具有带固定参数的二项随机变量的SDR特例。在论文中,作者还用SDR修改了DenseNet框架,并在标准基准(CIFAR-10和CIFAR-100)中进行了测试 ,结果说明SDR相对于二项分布的 Dropout 具有很大的优势。

(1) github:https://github.com/noahfl/sdr-densenet-pytorch

(2) 论文:https://arxiv.org/abs/1808.03578v2

<think>嗯,用户想了解从GitHub上复现三维重建论文的具体步骤。首先,我得先理清楚整个过程的大致框架。三维重建涉及的领域挺广的,可能包括计算机视觉、深度学习,还有传统的几何处理。用户可能是研究人员或者学生,想要复现论文的结果来验证方法或者进行后续研究。 首先,用户需要到合适的论文和对应的代码库。GitHub上有很多开源项目,但质量参差不齐。可能需要提醒用户注意论文的权威性和代码的维护情况。比如,推荐他们看CVPR、ICCV等会的论文,这些通常有更好的代码支持。 然后,复现步骤可能包括环境配置、数据准备、模型训练、测试和调优。环境配置方面,不同的项目可能依赖不同的深度学习框架,比如PyTorch或TensorFlow。要提醒用户注意版本兼容性,可能需要用虚拟环境或者Docker来隔离依赖。 数据准备是关键,三维重建的数据集可能有多种格式,比如COLMAP用的图像集,或者ShapeNet这样的合成数据集。用户需要下载正确的数据,并按照项目要求预处理。这里可能会有路径问题或者数据格式转换的麻烦,需要耐心处理。 接下来是模型训练。用户可能会遇到显存不足、参数配置错误等问题。需要建议他们从小规模数据开始测试,逐步调整超参数。另外,有些项目可能提供预训练模型,直接使用可以节省时间。 测试阶段,可能需要使用评估指标如CD(Chamfer Distance)或IoU来验证结果。如果结果论文不符,可能需要检查数据预处理是否正确,或者模型是否有未提及的实现细节。 调优部分,用户可能需要根据具体问题调整网络结构或参数,这时候理解论文的细节就很重要了。此外,社区讨论和issue部分可能有其他开发者遇到的问题和解决方案,建议用户多参考。 可能用户在实际操作中会遇到各种报错,比如缺失库、CUDA版本不匹配、数据加载错误等。这时候需要耐心查看日志,逐步排查。另外,有些论文的细节可能没有完全在代码中体现,或者使用了不同的参数,这时候可能需要联系作者或者查阅相关文档。 最后,整理整个流程,确保用户能一步步跟随,避免遗漏关键步骤。同时,强调复现过程中可能遇到的常见问题及解决办法,帮助用户减少挫败感,顺利完成复现。</think>从GitHub复现三维重建论文的具体步骤如下: --- ### 一、确定目标论文代码库 1. **选择论文** - 优先选择论文(CVPR/ICCV/ECCV等) - 确认论文是否提供开源代码(检查论文"Implementation Details"或GitHub链接) - 例:*"NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis"* 2. **定位代码库** - GitHub搜索论文标题/关键词,按Star数排序筛选高质量仓库 - 检查代码更新日期(避免长期未维护的项目--- ### 二、环境配置 1. **硬件要求** - GPU:至少NVIDIA RTX 3060(显存≥12GB) - RAM:≥32GB(大型数据集需更高内存) 2. **软件环境搭建** ```bash # 示例:PyTorch环境 conda create -n 3drecon python=3.8 conda install pytorch==1.12.1 torchvision==0.13.1 cudatoolkit=11.3 -c pytorch pip install -r requirements.txt # 安装项目依赖 ``` 3. **特殊依赖处理** - CUDA/cuDNN版本对齐(通过`nvidia-smi`查看驱动支持版本) - 第三方库编译(如OpenMVS/COLMAP需源码编译) --- ### 三、数据准备 1. **获取数据集** - 常用数据集: - DTU/MVS:多视角扫描数据 - ShapeNet:合成3D模型 - Custom Data:自行采集多视角图像 2. **数据预处理** ```bash # 示例:COLMAP稀疏重建 python scripts/colmap2nerf.py --colmap_matcher exhaustive \ --run_colmap \ --images /path/to/images ``` 3. **路径配置** - 修改`configs/*.yaml`中的数据集路径 - 检查文件结构是否符合要求(如`images/`, `poses/`, `sparse/`等目录) --- ### 四、模型训练验证 1. **启动训练** ```bash python train.py --config configs/nerf_blender.yaml --dataset_name lego ``` 2. **关键参数调整** - Batch size(避免显存溢出) - Learning rate(参考论文建议值) - 采样点数量(影响重建细节) 3. **训练监控** - 使用TensorBoard查看损失曲线: ```bash tensorboard --logdir runs/ ``` --- ### 五、结果复现调试 1. **测试预训练模型** ```bash python eval.py --ckpt_path pretrained/nerf_synthetic_lego.pt ``` 2. **常见问题排查** | 现象 | 解决方案 | |---|---| | CUDA内存不足 | 减小`batch_size`或降低分辨率 | | 重建伪影 | 检查光线采样策略/增加采样点 | | 姿态估计失败 | 验证COLMAP特征匹配质量 | 3. **结果对比** - 定量指标:PSNR/SSIM/LPIPS - 定性对比:渲染视角一致性/细节保留 --- ### 六、进阶优化 1. **代码改进** - 替换更高效的采样策略(如Hierarchical Sampling) - 集成加速方法(Instant-NGP的哈希编码) 2. **跨平台部署** - ONNX/TensorRT格式转换 - Web端部署(Three.js/WebGL) --- ### 工具推荐 1. **调试工具** - `pdb`/`ipdb`:Python调试器 - `nsight-systems`:CUDA性能分析 2. **可视化工具** - MeshLab/CloudCompare:点云/网格查看 - Blender:渲染结果对比 --- 按照以上步骤系统推进,配合论文反复对照实现细节,可有效完成三维重建论文的复现工作。建议从经典方法(如NeRF、MVSNet)入手,逐步深入复杂场景重建。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值