模型中的参数和超参数

        机器学习中的优化问题可以分为参数优化问题和超参数优化问题。
        在确定了训练集DDD、假设空间fff以及学习准则后,如何找到最优的模型f(x,θ∗)f(x,\theta ^{*})f(x,θ)就成了一个最优化问题,模型f(x,θ)f(x,\theta)f(x,θ)中的参数θ\thetaθ称为模型的参数,可以通过优化算法进行学习。除了可以学习的参数θ\thetaθ外,还有一类参数用来定义模型结构或者优化策略,这类参数称为超参数(hyper−parameter)(hyper-parameter)(hyperparameter)
        常见的超参数包括:聚类算法中的类别个数、梯度下降法的步长、正则化的系数、神经网络的层数、支持向量机中的核函数等。超参数的选取一般都是组合优化问题,很难通过优化算法来自动学习。因此,超参数优化是机器学习中一个经验性很强的技术,通常是按照个人经验来设定的,或者通过搜索的方法对一组超参数组合进行不断试错调整。此外,在贝叶斯框架下,可以将超参数理解为参数的参数,即控制模型参数分布的参数。

        欢迎交流! QQ:3408649893

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值