习题2-2(nndl)

本文深入探讨了在线性回归中如何通过权重矩阵R对样本进行加权,以影响经验风险函数。我们分析了权重r^n在局部优化和全局优化中的作用,并对比了两种解法,明确了权重是对数据处理的个性化标记,有助于获取期望的最优参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2-2 问题

在线性回归中,如果我们给每个样本(x(n),y(n))\left( \boldsymbol{x}^{\left( n \right)},y^{\left( n \right)} \right)(x(n),y(n)) 赋予一个权重rnr^{n}rn,经验风险函数为R(w)=12∑n=1Nr(n)(y(n)−wTx(n))2 \mathcal{R}\left( w \right) =\frac{1}{2}\sum_{n=1}^N{\boldsymbol{r}^{\left( n \right)}\left( \boldsymbol{y}^{\left( n \right)}-\boldsymbol{w}^T\boldsymbol{x}^{\left( n \right)} \right) ^2} R(w)=21n=1Nr(n)(y(n)wTx(n))2
计算其最优参数w∗\boldsymbol{w^*}w,并分析权重rnr^{n}rn的作用。

解:风险函数R(w)\mathcal{R}\left( \boldsymbol{w} \right)R(w)是关于w\boldsymbol{w}w的凸函数,将rnr^{n}rn提到最前面进行叠加,其对w\boldsymbol{w}w的偏导为∂R(w)∂w=−12∑n=1Nr(n)X(y−XTw) \frac{\partial \mathcal{R}\left( \boldsymbol{w} \right)}{\partial \boldsymbol{w}}=-\frac{1}{2}\sum_{\boldsymbol{n}=1}^N{r^{\left( n \right)}\boldsymbol{X}\left( \boldsymbol{y}-X^T\boldsymbol{w} \right)} wR(w)=21n=1Nr(n)X(yXTw)
令上式为零得到w∗=∑n=1Nr(n)(XXT)−1Xy w^*=\sum_{n=1}^N{r^{\left( n \right)}\left( XX^T \right) ^{-1}Xy} w=n=1Nr(n)(XXT)1Xy

结论:我们给每一个样本赋予权重rnr^{n}rn,这里我理解是在我们进行优化的时候,在局部数据进行优化的时候我们对感兴趣的局部设置权重往往会大一点以用来削弱距离较远的数据带来的影响。倘若在全局进行优化的时候我们往往会给予样本以相差不大的权重;这里权重是对数据处理进行的一次人为的标注,以达到我们所期望的最优参数解。

在邱老师的github课后解答中,我看到答案的解为:
R\boldsymbol{R}R=diag(rnr^{n}rn)(对角矩阵)此时R\boldsymbol{R}RX\boldsymbol{X}X就表示将xnx^{n}xn赋予权重
∂R(w)∂w=12∂R∣∣y−XTw∣∣2∂w=0 \frac{\partial \mathcal{R}\left( w \right)}{\partial w}=\frac{1}{2}\frac{\partial \mathcal{R}||\boldsymbol{y}-\boldsymbol{X}^T\boldsymbol{w||}^2}{\partial \boldsymbol{w}}=0 wR(w)=21wRyXTw2=0
−XR(y−XTw)=0 -\boldsymbol{XR}\left( \boldsymbol{y}-\boldsymbol{X}^{\boldsymbol{T}}\boldsymbol{w} \right) =0 XR(yXTw)=0
解得:
w∗=(XRXT)−1XRy \boldsymbol{w}^*=\left( \boldsymbol{XRX}^{\boldsymbol{T}} \right) ^{-1}\boldsymbol{XRy} w=(XRXT)1XRy
此解更为简洁,我们注意的是构建矩阵R\boldsymbol{R}R为对角矩阵

### 关于深度学习邱锡鹏课后习题的解答及相关资源 针对《神经网络与深度学习》这本书中的课后习题,可以参考多个渠道来获取详细的解答和相关资源。以下是具体的内容: #### 1. 官方GitHub讨论区 官方提供了专门用于讨论课后习题的GitHub仓库 `nndl/solutions`[^2],其中包含了部分章节的习题解答以及社区成员之间的交流内容。这些解答通常由读者自发贡献,因此覆盖面广且具有较高的可信度。 #### 2. 博客文章汇总 一些博主基于自己的学习经验撰写了详尽的课后习题解析博文。例如,在一篇名为“第二章课后习题答案”的博文中提到,作者综合了来自GitHub讨论区和其他平台的信息,并进行了补充说明[^1]。这类博客不仅提供了解答思路,还附带了一些扩展知识点,便于更全面地掌握相关内容。 #### 3. 社交媒体上的解读 知乎平台上也有不少关于该教材课后习题的回答。比如某篇帖子就围绕第2章线回归模型展开分析,特别提到了样本权重计算这一难点问题[^3]。通过社交媒体可以获得不同视角下的解法解释,有助于加深理解。 #### 4. 编程实践指导 除了理论的题目外,《神经网络与深度学习》还包括许多需要动手实现的部分。对于初学者来说,可以从简单的Python脚本入手熟悉基本操作逻辑。像下面这段代码展示了如何利用NumPy库绘制正弦波形图像: ```python import numpy as np import matplotlib.pyplot as plt x = np.arange(0, 3 * np.pi, 0.1) y1 = np.sin(x) y2 = np.cos(x) plt.figure(figsize=(10,6)) plt.plot(x, y1, color='Red', label="Sine Wave") plt.plot(x, y2, color='Blue', label="Cosine Wave") plt.title('Trigonometric Functions') plt.xlabel('X-axis') plt.ylabel('Y-axis') plt.legend() plt.grid(True) plt.show() ``` 以上实例来源于第一章Numpy教程练习环节[^4],它强调实际应用能力培养的重要--- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值