很多人私信我硕士生能兼顾实习和论文发表的秘诀,其实好像没什么秘诀,主要还是看自己的执行力(有idea马上实验,有结果及时讨论),以及领域是否热门(决定了论文是否好发,竞争者数量),还有导师的能力以及宽容度
这里我简单总结一下我的经验:
-
关注更广泛的领域
比如我做的是Pansharpening,这是个小的不能再小的任务,如何才能在这个任务上玩出新意?除了我的导师在该领域很有经验,能给出经验以外,我觉得重要的是选择更通用、接受度更广的角度,即蹭热点。具体地,我做Pansharpening,却用DIffusion Model,蹭了生成式AI的热点;我用多模态LLM,甚至用MOE,又蹭了大模型的热点。
我觉得蹭热点不是什么错误的行为,恰恰相反,有至少两点好处:1. 论文接受度更广了,更容易中。审稿人通常不是小行业的专家,而是大同行,使用大家都懂的技术,可以避免审稿人问一些完全不懂的问题。2. 更贴合工业界,容易做出有影响力的工作,很容易被业内follow,增强自己的影响力。
其他好处包括:找工作更容易(容易的不是一点点)、技术嗅觉更敏锐、论文写作学习、开拓眼界等
缺点:需要时刻关注前沿领域的文章,我看论文95%都不是Pansharpening任务的,而是DIffusion Model,multi modal LLM, Mamba等,小同行的论文更多是找对比方法的时候看;而且蹭热点要有意义,Motivation讲清楚了,比如为什么引入文本,引入文本的效果好吗?引入MOE的效果好吗?如何做适配? -
使用更好的工具
-
代码功底
强烈建议学习Hugging face 的代码仓库,以及pytorch的官方仓库
具体包括huggingface Transformers | diffusers
-
Dual-Granularity Semantic Guided Sparse Routing Diffusion Model for General Pansharpening
YH Xing, LT. Qu, SZ. Zhang, K. Zhang, YN. Zhang and L. Bruzzong
CVPR 2025(学生一作)
[pdf][code] -
CrossDiff: Exploring Self-Supervised Representation of Pansharpening via Cross-Predictive Diffusion Model
YH Xing, LT. Qu, SZ. Zhang, K. Zhang, YN. Zhang and L. Bruzzong
IEEE TRANSACTIONS ON IMAGE PROCESSIN(学生一作)
[pdf][code] -
Explicit and size-adaptive PSO-based feature selection for classification
Litao Qu, Weibin He, Jianfei Li, Hua Zhang, Cheng Yang, Bo Xie
Swarm and Evolutionary Computation,Volume 77,2023(高被引论文,第一作者)
[pdf][code] -
Empower Generalizability for Pansharpening Through Text-Modulated Diffusion Model
YH Xing,LT. Qu, SZ. Zhang, JP. Feng, XW. Zhang and YN. Zhang.
IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING, vol. 62, pp. 1-12, 2024.(学生一作)
[pdf][code] -
Complementary Fusion Network Based on Frequency Hybrid Attention for Pansharpening
YH Xing, LT. Qu, K. Zhang, Y. Zhang, XW. Zhang and YN. Zhang.
ICASSP 2024 - 2024(学生一作)
[pdf][code]