数学魔鬼表达式——第三天

这篇博客探讨了数学中的累加、累乘和积分表达式,并给出了具体示例。同时,介绍了神经网络中权重的三重累加遍历方式。还通过一个最小二乘法的例子,展示了矩阵运算在解决线性回归问题中的应用,讨论了最小二乘法的计算过程和特点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 将向量下标为偶数的分量 (x2, x4, …) 累加, 写出相应表达式.

∑i=nx2i\sum_{i=}^nx_{2i}i=nx2i

  1. 各出一道累加、累乘、积分表达式的习题, 并给出标准答案.

∑i=0nx2i+12+1\sum_{i=0}^nx_{2i+1}^2+1i=0nx2i+12+1
∏i=0nx2i+1\prod_{i=0}^{n}x_{2i}+1i=0nx2i+1
∫02πcos⁡xdx\int_0^{2\pi}\cos{x} \mathrm{d}x02πcosxdx

  1. 你使用过三重累加吗? 描述一下其应用.

在神经网络中,权重一般表示为三维的数组,遍历权重数组一般要使用三重累加

  1. 给一个常用的定积分, 将手算结果与程序结果对比.
    ∫0102x\int_0^{10}2x0102x
 double integration = 0;
        double delta = 0.01;
        for (double x = 0; x <= 10; x += delta) {
            integration += 2*x* delta;
        }
        System.out.println(integration);

100.09999999999866
可以说,已经很接近了

自己写一个小例子 (n=3n = 3n=3, m=1m = 1m=1) 来验证最小二乘法.

X=[123]\mathbf{X} = \begin{bmatrix} 1 \\ 2 \\ 3\\ \end{bmatrix}X=123
Y=[357]\mathbf{Y} = \begin{bmatrix} 3\\ 5\\ 7\\ \end{bmatrix}Y=357
ω=(XTX)−1XTY=[2.98]\mathrm{\omega}=(\mathbf{X}^{\mathrm{T}}\mathbf{X})^{-1}\mathbf{X}^{\mathrm{T}}\mathbf{Y}=[2.98]ω=(XTX)1XTY=[2.98]
ω=(XTX−λI)−1XTY=[2.1]\mathrm{\omega}=(\mathbf{X}^{\mathrm{T}}\mathbf{X}-\lambda\mathbf{I})^{-1}\mathbf{X}^{\mathrm{T}}\mathbf{Y}=[2.1]ω=(XTXλI)1XTY=[2.1]

自己推导一遍, 并描述这个方法的特点 (不少于 5 条).
1.回归问题是求解是多少的问题,而分类问题求解的是是哪一个的问题。
2.在求解分类问题的时候,设计标签向量的时候如果表示为[1, 2, 3]这种类型,种类之前存在大小关系,而在实际的问题中,类别没有大小关系。
3. 上一个问题可以采用one-hot编码,即采用二进制编码。有n个类别,就采用⌈log⁡2x⌉\lceil \log_2x \rceillog2x位二进制编码
4. logistic回归通过sofmax函数将(−∞,+∞)(-\infty,+\infty)(,+)的实数收敛到(0,1)表示概率,由于本身也是连续可导的,便于后面的梯度下降操作
5. 损失函数的求解有点类似交叉熵的求解

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

来日可期1314

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值