机器学习——名词解释集锦

本文详细解释了机器学习中的一些关键概念,包括数理类的先验假设和鲁棒性,以及算法类的NP、P、NP完全问题和NP难问题。先验假设是指基于理论而非实验得出的结论,而鲁棒性则衡量模型对噪声数据的抵抗力。在算法方面,介绍了NP、P、NP完全和NP难问题的区别,强调了NP完全问题在解决复杂问题中的核心地位。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、数理类:

1、先验假设 (Priori Hypothesis) 

—— 对一种现象的解释,顾名思义,是基于理论和逻辑,而不是基于实验和观察得出的结论。相反地,后验假设( posterior hypothesis )是基于实验和观察而不是理论和逻辑得出解释。(http://www.ask.com/question/what-is-a-priori-hypothesis

2、鲁棒性(Robustness)

——统计学中的一个专门术语,20世纪70年代初开始在控制理论的研究中流行起来,用以表征控制系统对特性或参数扰动的不敏感性。在机器学习中,用于表示训练算法对噪声数据的干扰的不敏感性。(http://baike.baidu.com/view/45520.htm


二、算法类:

1、NP完全问题(NP-complete problem;NP:Non-deterministic Polynomial

### 机器学习中的常用名词及其定义 #### 超参数 超参数是指那些不在模型训练过程中自动调整,而是由开发者手动设置的参数。这类参数通常用于控制模型结构或优化过程的关键方面,例如神经网络层数、每层节点数以及正则化系数等[^5]。 #### 过拟合与欠拟合 过拟合指的是当一个统计模型描述随机误差或噪声而不是潜在的关系时发生的现象;此时该模型在新数据上泛化能力差。相反,如果模型未能捕捉到足够的模式,则称为欠拟合,这表明模型过于简单无法有效表示数据特征[^3]。 #### 交叉熵损失函数 交叉熵是一种衡量两个概率分布之间差异的方法,在二分类或多分类任务中被广泛应用于计算真实标签y_true和预测值p_pred之间的距离。它能够有效地反映两者间的相似程度,并指导权重更新以最小化这种差距[^1]。 #### Hopfield网络与玻尔兹曼机 这两种都是基于能量框架构建的人工神经网络形式。前者是没有隐藏层且各单元间存在双向对称连接关系的一种特殊类型的反馈型ANNs——即所谓的“自联想记忆”。后者则是引入了一定数量隐含结点后的扩展版本,允许更复杂的内部表征形成机制发挥作用[^4]。 #### 无监督学习下的聚类技术 作为一种典型的非监督方法论分支之一,“聚类”旨在发现给定集合内对象自然分群的趋势并据此划分群体。此操作无需预先知晓任何有关类别归属的信息即可完成,因此非常适合处理未知标注的大规模原始资料集,比如客户细分市场分析或是异常检测等领域应用案例[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值