算是个里程碑吧

从08年5月28日正式来到天正这家公司.

第一天就赶上,项目立项会.

29日,到浦发的数据中心,写了一天,EDS需求.

30日(周五)就请假, 拿劳动手册去了.

6月2日 开始正式写需求.

6月3日 我负责的两个模块,在和甲方开会的时候都被砍了. 是模块本身问题. 开会的时候我都还没来得及解说,就定了.确定新的模块.3个 .(已经有点发烧,38.5)

6月4日 身体已经开始不行了. 分到的招聘模块,勉强访谈了下.下午3点多就请假回去了.

6月5日~~6月6日 急性肠炎,高烧39度3天

端午小长假

6月10日 身体恢复, 完成了,招聘模块. 并进行了另两个模块的访谈.初步完成

6月11日 遇到"部门之间"问题, 解决, 并完成了. 技术支持部的需求.

今天,6.12 QA要开会. 看来要开一天了.

之后的任务.

1. 完善,招聘模块中的招聘流程的需求

2. 完善,酒店总的需求, 最好访谈下,是否并一块

<think>嗯,用户想了解深度学习模型的发展历程和里程碑。首先,我需要回顾一下深度学习的关键历史节点。记得早期的感知机模型,那是Frank Rosenblatt在1958年提出的,算是神经网络的前身。不过那时候的感知机只能处理线性可分的问题,后来Minsky指出了它的局限性,导致研究一度停滞。 然后应该是反向传播算法的出现,1986年由Rumelhart等人提出,这解决了多层网络训练的问题,但受限于当时的计算能力和数据量,应用并不广泛。接下来是支持向量机(SVM)在90年代的流行,可能让神经网络研究进入低潮,不过LeCun在1998年提出的LeNet-5用于手写数字识别,算是一个小突破,但影响有限。 真正的转折点应该是2012年的AlexNet,由Hinton的学生Alex Krizhevsky等人提出,他们在ImageNet比赛中大幅领先,证明了深度学习的潜力。这之后深度学习快速发展,出现了VGG、ResNet等模型,解决梯度消失问题。再后来,注意力机制和Transformer架构在自然语言处理领域大放异彩,比如BERT和GPT系列模型,这些都属于预训练大模型的范畴。 用户提供的引用中提到RAG大模型,说明现在的大模型不仅规模大,还能处理更复杂任务。需要结合这些引用中的信息,比如引用[1]提到RAG的预训练和海量数据,引用[3]详细讲了AlexNet的意义。此外,引用[2]提到数据、算力和算法的共同推动,这也是发展历程的重要因素。 在组织回答时,应该按时间顺序,分阶段介绍每个里程碑,并连接它们的影响。还要注意用户提到的格式要求,比如数学公式用$...$,独立公式用$$...$$,不过这里可能用不上太多数学,但如果有的话需要正确应用。最后生成相关问题,要确保问题与内容相关,帮助用户深入理解。 需要检查是否有遗漏的重要模型,比如LSTM、GAN,或者最近的扩散模型。不过用户的问题集中在发展历程和里程碑,可能不需要太详细的技术细节,但关键节点必须涵盖。同时,确保引用正确,每个引用对应的内容要自然插入,比如在讲AlexNet时引用[3],讲大模型时引用[1],整体趋势时引用[2]。 最后,回答要结构清晰,分点叙述,可能使用时间线或阶段划分,让用户容易理解。还要注意使用中文,避免专业术语过多,保持口语化但准确。</think>### 深度学习模型的发展历程与里程碑 #### 1. **早期基础(1950s-1980s)** - **感知机模型(1958)**:Frank Rosenblatt提出首个神经网络模型——感知机,用于二元分类任务。其局限性(如无法解决异或问题)导致研究陷入低谷[^2]。 - **反向传播算法(1986)**:Rumelhart等人提出反向传播算法,为多层神经网络的训练提供了数学基础,但受限于计算能力和数据量,未能广泛应用。 #### 2. **蛰伏与突破(1990s-2000s)** - **支持向量机(SVM)的兴起**:传统机器学习方法(如SVM)主导,神经网络研究进入低潮。 - **LeNet-5(1998)**:Yann LeCun提出用于手写数字识别的卷积神经网络(CNN),但因硬件限制未引起广泛关注[^3]。 #### 3. **深度学习革命(2010s至今)** - **AlexNet(2012)**:在ImageNet竞赛中以显著优势夺冠,首次证明深度学习在图像识别的潜力。其使用ReLU激活函数、Dropout和GPU加速训练,成为现代深度学习的起点[^3]。 $$ \text{ReLU}(x) = \max(0, x) $$ - **VGGNet与ResNet(2014-2015)**:VGG通过堆叠3x3卷积层统一架构;ResNet引入残差连接,解决深层网络梯度消失问题,推动模型深度突破百层。 - **注意力机制与Transformer(2017)**:Vaswani等人提出Transformer架构,彻底改变自然语言处理(NLP)领域。其自注意力机制可并行处理序列数据,为BERT、GPT等模型奠定基础。 - **预训练大模型(2018-至今)**:如BERT、GPT系列、RAG等模型通过海量数据预训练,实现多任务泛化能力。RAG大模型结合检索与生成,标志着模型从“理解”向“知识整合”演进[^1]。 #### 4. **当前趋势与挑战** - **多模态与跨领域应用**:如CLIP(图文联合模型)、DALL-E(图像生成)探索多模态学习。 - **算力与数据依赖**:模型规模指数级增长(如GPT-3参数达1750亿),依赖高性能计算与大数据,引发对能耗和伦理的反思。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值