HBU-NNDL 第三章习题作业

习题3-2

在线性空间中,证明一个点𝒙到平面𝑓(𝒙; 𝒘) =w^{T}x+b = 0的距离为|𝑓(𝒙; 𝒘)|/‖𝒘‖。

取平面𝑓(𝒙; 𝒘) = 0中任意一点x_{0},得到向量\overrightarrow{x_{0}x}(即x-x_{0}),其中点x到平面的距离d为向量\overrightarrow{x_{0}x}在平面法向量w上的投影,d=\left | \left | \overrightarrow{x_{0}x} \right | \right |\cdot cos\theta,θ为\overrightarrow{x_{0}x}与法向量w的夹角。

cos\theta=\frac{\left | \overrightarrow{x_{0}x}\cdot w \right |}{\left \| \overrightarrow{x_{0}x}\right \|\left \| w \right \|}=\frac{\left | \overrightarrow{x}\cdot w - \overrightarrow{x_{0}\cdot }w\right |}{\left \| \overrightarrow{x_{0}x} \right \|\left \| w \right \|}=\frac{\left | f(x;w)-f(x_{0};w) \right |}{\left \| \overrightarrow{x_{0}x}\right \|\left \| w \right \|}

因为点x_{0}在平面f(x;w)内,所以有

cos\theta=\frac{\left | f(x;w) \right |}{\left \| \overrightarrow{x_{0}x}\right \|\left \| w \right \|}

带入d中得:

d=\frac{\left | f(x;w) \right |}{\left \| w \right \|}

习题3-5

在Logistic回归中,是否可以用\hat{y}=\sigma (w^{T}x)去逼近正确的标签𝑦,并用平方损失(y-\hat{y})^{2}最小化来优化参数𝒘?

不可以。

       logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。

sigmoid:使大的值更大、小的值更小(数值被归整到0-1之间);多用于二分类问题。

线性回归的输出使用sigmoid激活后成为logistic回归,logistic 回归能实现非线性特征变换,这也就是加深网络的意义。

softmax:使所有的值之和为1(保持数值间的大小关系);可用于多标签分类问题。

sigmoid 处理的是单个输入值,不关注整体输入数据的关系。softmax 处理的是单个与整体的输入值,关注整体输入数据的关系。

logistic回归不能用均方误差,在使用One-Hot编码表示分类问题的真实标签的情况下,我们使用平方损失函数计算模型的预测损失时会计算预测标签中每一个类别的可能性与真实标签之间的差距。
若我们想要得到更小的损失则需要模型预测得到的预测标签整体与One-Hot编码的真实标签相近,这对于模型来说计算精度要求过高,在分类我们上我们往往只关注模型对数据的真实类别的预测概率而不关注对其他类别的预测概率。所以对分类问题来说,平方损失函数不太适用。

习题3-6

在 Softmax 回归的风险函数(公式 (3.39))中,如果加上正则化项会有什么影响?

        Softmax回归中使用的𝐶个权重向量是冗余的,即对所有的权重向量都减去一个同样的向量 𝒗,不改变其输出结果。因此,Softmax回归往往需要使用正则化来约束其参数。此外,我们还可以利用这个特性来避免计算Softmax函数时在数值计算上溢出问题。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值