- 博客(2)
- 收藏
- 关注
原创 细数AI领域的那些神文(一) -- Attention Is All You Need(1)
RNN,LSTM,GRU,Gated Recurrent Neural Networks 在序列建模和转换任务上,比如语言模型和机器翻译,已经是大家公认的取得SOTA结果的方法。自此,无数的努力继续推动递归语言模型和encoder-decoder体系结构的界限。递归模型通常沿输入和输出序列的符号位置进行因子计算。在计算时将位置与步骤对齐,它们生成一系列隐藏状态h t h_tht,t tt位置的h t h_tht使用它的前驱h t − 1 h_{t-1}ht−1和当前的输入生成。
2025-04-18 21:38:03
535
原创 细数AI领域的那些神文 -- 引言
从Yann LeCun的手写数字识别到Demis Hassabis的蛋白质折叠魔法,从Geoffrey Hinton的Dropout到Ilya Sutskever的Scaling Law,这不仅是一场论文精读之旅,更是一次穿越AI思想史的时空探险。,重回AI史上的顿悟时刻。我们将从卷积神经网络唤醒深度学习的黎明开始,穿越Transformer架构重构世界的狂飙年代,最终抵达多模态大模型重塑人类认知的前沿战场。这个系列既是我的学习笔记,也是一份献给同样初学者的探索地图——我们将从最基础的里程碑论文出发,
2025-04-18 21:10:22
192
酒店和餐厅网站HTML模板
2025-04-18
住宿和酒店预定网站HTML5模板
2025-04-18
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人