多项式函数拟合sin函数(最小二乘法求解参数及其正则化)

本文介绍了统计学习方法中的监督学习,重点探讨了模型选择和泛化能力,以防止过拟合。通过最小二乘法和正则化技术来解决多项式函数对sin函数的拟合问题,涉及的模型包括感知机、K近邻、朴素贝叶斯等常见机器学习算法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行分析与预测的一门学科。统计学习包括监督学习、非监督学习、半监督学习和强化学习。
2.统计学习方法三要素——模型、策略、算法,对理解统计学习方法起到提纲挈领的作用。
3.本书主要讨论监督学习,监督学习可以概括如下:从给定有限的训练数据出发, 假设数据是独立同分布的,而且假设模型属于某个假设空间,应用某一评价准则,从假设空间中选取一个最优的模型,使它对已给训练数据及未知测试数据在给定评价标准意义下有最准确的预测。
4.统计学习中,进行模型选择或者说提高学习的泛化能力是一个重要问题。如果只考虑减少训练误差,就可能产生过拟合现象。模型选择的方法有正则化与交叉验证。学习方法泛化能力的分析是统计学习理论研究的重要课题。
5.分类问题、标注问题和回归问题都是监督学习的重要问题。本书中介绍的统计学习方法包括感知机、K近邻法、朴素贝叶斯法、决策树、逻辑斯谛回归与最大熵模型、支持向量机、提升方法、EM 算法、隐马尔可夫模型和条件随机场。这些方法是主要的分类、标注以及回归方法。它们又可以归类为生成方法与判别方法。
在这里插入图片描述
在这里插入图片描述

import numpy as np
import matplotlib.pyplot as plt
from scipy.optimize import leastsq


# 我们要拟合的目标函数
def real_func(x):
    return np.sin(2*np.pi*x)


# 我们自己定义的多项式函数
def fit_func(p, x):
    f = np.poly1d(p)  # np.poly1d([2,3,5,7])返回的是函数,2x3 + 3x2 + 5x + 7
    ret = f(x)
    return ret


# 计算残差
def residuals_func(p, x, y):
    ret = fit_func(p, x) - y
    return ret


def fitting(M=0):
    """
        M    为 多项式的次数
    """
    # 随机初始化多项式参数
    p_init = np.random.rand(M + 1
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值