深度学习中常用术语

监督学习

        所谓监督学习,就是先利用有标签的训练数据学习得到一个模型,然后使用这个模型对新样本进行预测。在本质上,监督学习的目标在于,构建一个由输入到输出的映射,该映射用模型来表示

无监督学习

        与监督学习相反,无监督学习的数据是没有标签的,我们把数据给机器,并让它试着从这些数据中找到某种结构。无监督学习使我们能够在不知道结果应该是什么的情况下处理问题。我们可以从不一定知道变量影响的数据中导出结构。简单来说,无监督学习中的数据没有任何标签,拿到数据集,我们并不知道要拿它来做什么,也不知道每个数据点究竟是什么,而只是被告知这里有一个数据集,能否在其中找到某种有意义的结构。

半监督学习

       半监督学习是一种介于监督学习和无监督学习之间的学习。 在现实生活中,无标签的数据易于获取,而有标签的数据收集起来通常很困难,标注也耗时和耗力。在这种情况下,半监督学习(Semi-Supervised Learning)更适用于现实世界中的应用。半监督学习(这里仅针对半监督分类),就是要利用大量的无标签样本和少量带有标签的样本来训练分类器,解决有标签样本不足的难题

线性回归

        是利用回归函数对一个或多个自变量和因变量之间关系进行建模的一种分析方法。只有一个自变量的情况称为单变量回归,多于一个自变量的情况叫多元回归

神经元

        神经元是构成神经网络的基本单元,其主要是模拟生物神经元的结构和特性,接受一组输入信号并产出输出。通过神经元,人工神经网络可以以数学模型模拟人脑神经元活动,继而进行高效的计算以及其他处理。

链式法则    

        链式法则是微积分中的求导法则,用于求一个复合函数导数,是在微积分的求导运算中一种常用的方法。复合函数的导数将是构成复合这有限个函数在相应点的导数的乘积,就像锁链一样一环套一环,故称链式法则。

前向传播

            简单理解就是将上一层的输出作为下一层的输入,并计算下一层的输出,一直到运算到输出层为止

### 深度学习常用术语及其解释 #### Feature Map (特征图) Feature map 是指卷积神经网络(CNN)中的卷积层输出的一种表示形式。具体来说,在 CNN 的每一层卷积操作之后,数据通常以三维的形式存在,类似于多个二维图像叠加在一起。这种结构中的每一个二维平面被称为一个 feature map[^1]。例如,在输入层中,如果处理的是灰度图像,则仅有一个 feature map;而如果是 RGB 彩色图像,则会有三个 feature map。 #### Value Function (价值函数) Value function 表达了一种对未来奖励的预测能力。通过将 policy function 和 state function 进行积分运算,并消除后续的动作变量 \(A_{t+1}, A_{t+2}\),可以计算出在当前状态 \(s_t\) 下采取某个动作 \(a_t\) 后可能获得的未来平均回报。这一过程帮助评估不同动作的好坏程度,从而指导决策制定[^2]。 #### Policy Function (策略函数) Policy function 定义了一个从环境的状态到可执行行动的概率分布映射关系。它描述了智能体如何依据所处的具体情境来决定下一步应该做什么。换句话说,它是用来选择最佳行为的核心机制之一[^2]。 #### Convolutional Neural Network (CNN, 卷积神经网络) 这是一种专门设计用于处理具有网格状拓扑的数据集(比如时间序列或者图像像素矩阵)的人工神经网络架构。其主要特点是利用局部连接权重共享以及池化技术实现高效的空间特征提取与降维目的[^1]. 以下是 Python 中构建简单 CNN 模型的一个例子: ```python from tensorflow.keras import layers, models model = models.Sequential() model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1))) model.add(layers.MaxPooling2D((2, 2))) model.add(layers.Flatten()) model.add(layers.Dense(10)) ``` #### Recurrent Neural Networks (RNN, 循环神经网络) 不同于标准前馈网络,RNN允许先前时刻的信息影响当下节点激活值的变化趋势.RNN特别适合于解决涉及序列建模的任务,如自然语言处理等领域内的文本分类、情感分析等问题. ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值