大数据
文章平均质量分 65
大豆木南
人生很长,珍惜每一个晴天雨天刮风天下雪天
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
(二)RNN 的 反向传播算法详细推导
在反向传播算法理解一文中,大体讲了反向传播算法的大体思想和优势,这篇文章拿最简单的RNN网络推导反向传播算法。计算图和计算公式我们拿最具代表性的如下RNN网络图简单推导。上图是一张计算图。为方便公式推导,我们把公式写出来。对于每一步 t ,都是如下的计算过程。每一步的损失函数,总的损失函数 L 如下:在每一步 t 中,是向量形式变量,是向量形式变量,是向量形式变量,是向量形式变量,是向量形式变量;W 是矩阵形式变量,V 是矩阵形式变量,U 是矩阵形式变量(注...原创 2021-09-27 14:01:23 · 7273 阅读 · 9 评论 -
xgboost 实现多分类问题demo以及原理
本文先把xgboost支持的多分类问题的demo写起来,打印出生成的树结构,然后理解xgboost实现多分类问题的原理。这个顺序比较好理解一些。xgboost 多分类问题 demo这个demo从xgboost的源代码中就可以看到。在/demo/multiclass_classification/train.py。py文件里的数据(dermatology.data)可以在https://archive.ics.uci.edu/ml/machine-learning-databases/dermat..原创 2021-05-13 14:46:08 · 3888 阅读 · 3 评论 -
多分类问题的softmax函数交叉熵损失函数推导
二分类与多分类多分类问题的交叉熵损失函数推导与二分类交叉熵损失函数推导的思想是一致的。可以先参考 二分类问题的交叉熵损失函数推导可参考二分类问题的交叉熵损失函数推导。本文参考deeplearning 一书 6.2.2.3 Softmax Units for Multinoulli Output Distributions好啦,开始步入正题啦~首先要明确一点的是,为多分类问题和二分类问题设计的模型 在 最后一层直接输出的东西那里有比较大的不同。假设模型的输出层是全连接层,我们可以画出...原创 2021-05-11 18:26:01 · 6587 阅读 · 0 评论 -
hive left join 丢失数据
最近在写hql取数据的时候,发现不同的写法会模糊left join 和 join,使得得出的结果不是预期的。分别列出三段hql供参考:1、下面是第一段hql,将相关联的两张表(or 多张表)的条件都写在最后的where下:select a.cola1,a.cola2,b.colb1from tablea aleft join tableb b on a.id=b.id whereand a.dt='20200826'and b.dt='20200826';结果:这样的写法会使原创 2020-08-30 12:09:00 · 7134 阅读 · 6 评论
分享