深度学习学习笔记

  1. 人工智能,机器学习,深度学习的关系
    在这里插入图片描述
  2. 构成模型的三个关键要素:模型假设、评价函数(损失/优化目标)和优化算法
    评价:对已知观测数据上的拟合效果好
  3. 机器学习
    拟合一个大公式
    在这里插入图片描述
  4. 深度学习
    4.1神经网络的基本概念
    4.2深度学习的发展历程
    在这里插入图片描述
    1940年代:首次提出神经元的结构,但权重是不可学的。
    50-60年代:提出权重学习理论,神经元结构趋于完善,开启了神经网络的第一个黄金时代。
    1969年:提出异或问题(人们惊讶的发现神经网络模型连简单的异或问题也无法解决,对其的期望从云端跌落到谷底),神经网络模型进入了被束之高阁的黑暗时代。
    1986年:新提出的多层神经网络解决了异或问题,但随着90年代后理论更完备并且实践效果更好的SVM等机器学习模型的兴起,神经网络并未得到重视。
    2010年左右:深度学习进入真正兴起时期。随着神经网络模型改进的技术在语音和计算机视觉任务上大放异彩,也逐渐被证明在更多的任务,如自然语言处理以及海量数据的任务上更加有效。至此,神经网络模型重新焕发生机,并有了一个更加响亮的名字:深度学习。
    2017年-2021年:2017年,基于多头注意力机制的序列到序列模型Transformer在论文《Attention is all you need》中被提出。Transformer是一个具有里程碑意义的模型,它的提出催生了众多基于Transformer网络结构的模型,特别是在2018年预训练模型BERT(Bidirectional Encoder Representations from Transformers)的提出,其在多项NLP任务上均取得了突破性的进展。自此,不管是学术界,还是工业界均掀起了基于Transformer的预训练模型研究和应用的热潮,并且逐渐从NLP领域延伸到CV、语音等多项领域。
    2022年之后:2022年Open AI的ChatGPT正式发布,2023年百度的文心一言正式发布,使得生成式大规模语言模型正式破圈,人工智能开始被千行百业了解,进入应用爆发时代。
    备注:什么叫异或问题
    线性不可分问题
    (0,0)=1;(1,1)=1;(0,1)=0;(1,0)=0
    用一条直线 将 0,0 和 1,1 分在一面,将 0,1和1,0 分在一面;是否能够做到;结论是做不到
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值