自1943年M-P神经元模型诞生,神经网络历经“三起两落”,最终在深度学习时代实现跨越式发展。早期感知机与自适应滤波器受限于单层结构,无法解决异或问题;20世纪80年代,反向传播算法推动多层感知机复兴,但因计算资源限制未能普及。2006年,Hinton提出深度信念网络,2012年AlexNet以6000万参数突破ImageNet竞赛,标志深度学习崛起。
深度网络通过增加层数与参数规模,构建层次化特征提取能力。VGG16的1.38亿参数、Transformer的2亿参数,直至GPT-4的万亿级参数,模型复杂度呈指数级增长。与此同时,轻量化与硬件协同优化成为关键:稀疏编码减少冗余连接,FPGA加速并行计算,类脑模型探索神经形态芯片。当前,算法创新与算力竞赛并行,如DeepSeek的稀疏注意力机制将能耗降低263倍,Grok3则以20万H100集群刷新性能上限。未来,神经形态计算与生物启发模型或推动通用人工智能突破。
07-24
522

07-24
609
