
给那个可怜的博士生一个研究主题吧。
AI崛起十年之后,一些低垂的研究果子能摘的基本都被研究者们摘完了,隐藏在高处的果子一般人很难拿下。现在,很多研究者拔剑四顾心茫然,尤其对刚刚踏入AI领域的博士生,很难找到新的研究突破点,随着深度学习“撞墙”的唱衰声不断,大家也就只好卷各种SOTA了。
当然,不少有追求的研究者都在思索和探究,这个领域还有没新鲜、有趣的研究主题?AI的下一个大事件是什么?
这种前瞻性的问题一向会给人缥缈的焦虑感,但研究者又不得不去预测和押注。

先来回望下AI研究的黄金十年里发生的那些标志性事件。2012年,AlexNet一鸣惊人,一举革新了计算机视觉领域,是新一轮深度学习浪潮的首席弄潮儿。
生成对抗网络GAN诞生于2014年,来自Ian Goodfellow在一次酒馆聚餐时的灵光乍现,给后来的众多生成模型提供了一种新的训练思路,图灵奖获得者Yann Lecun赞叹,GAN是机器学习近十年来最有意思的想法。
2015年,由何恺明等人推出的深度残差网络ResNet在ISLVRC和COCO上横扫所有选手,获得冠军。ResNet在网络结构上做了大创新,而不再是简单的堆积层数,这个新思路也成为深度学习发展历程上里程碑式的事件。毫不夸张地说,目前在计算机视觉领域的很多研究者和工程师的饭碗,都是拜这篇论文所赐。
后来,强化学习、Transformers以及现在的扩散模型推动机器学习向前发展。不过,如果拉长时间维度来看,今天的人工智能可能还是处于“真空管”时代,接下来要想进入“晶体管”时代,研究者就要事先对可能有希望推动AI下一个“AlexNet”时刻到来的潜力方向进行大胆探索。
那么,到底哪些方向最有潜力?或者哪些是未被充分研究或被低估的AI研究方向?近期,深度学习教父Geoffery Hinton认为,AI的下一个大事件肯定是脉冲神经网络,而图灵奖得主Yann LeCun也指明下一代AI方向是自主机器智能(https://

本文探讨了AI博士生可能的研究方向,包括多模态大模型、神经符号AI、自监督学习、量子机器学习等。文章提到了深度学习教父Geoffrey Hinton和图灵奖得主Yann LeCun的观点,并引用了Reddit论坛上关于未来AI研究趋势的讨论。此外,文章指出,面对挑战如模型规模、内存墙和特定任务适应性,研究者需要探索新的解决方案。
最低0.47元/天 解锁文章
928

被折叠的 条评论
为什么被折叠?



