深度学习基础
文章平均质量分 92
菜咖咖
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深度学习中的autograd与jacobian
对于一个很简单的例子,如下图所示,对于一个神经元z,接收数据x作为输入,经过激活函数,获得激活后的结果,最后利用损失函数获得损失,然后梯度反向回传。上图右侧即梯度反向回传的过程,其中字母上加一条线代表损失函数对该参数的偏导。原创 2025-05-07 21:41:34 · 1234 阅读 · 0 评论 -
一文详解极大似然估计,从极大似然估计的角度理解线性回归
似然估计与我们熟知的概率问题是一个相反过程,概率是指当我们知道一些条件或者参数,来预测某件事情发生的概率,例如,当我们知道了天气,温度等来预测晾衣服的概率。再例如抛硬币,我们已知的条件是硬币材质均匀,大小均匀,因此可以预测正面朝上的概率是0.5,反面朝上的概率是0.5而似然是一个相反的过程,还是抛硬币的例子,现在我们假设抛10000次硬币,其中8000次人像朝上,2000次数字朝上,基于这个结果,我们推断,硬币可能构造特殊。进而推测硬币的参数,人像概率是0.8,数字概率是0.2。原创 2025-05-07 15:57:50 · 1245 阅读 · 0 评论
分享