- 博客(61)
- 收藏
- 关注
原创 RNN+LSTM
遗忘门(ft)、输入门(it)、输出门(ot)。分别用历史单元状态(ct-1)、当前单元状态(ct')、历史隐藏状态(ht-1)通过各个门控,得到下一个单元状态(ct)与隐藏状态(ht)
2024-10-23 15:13:20
325
转载 如何理解空洞卷积
空洞卷积(Dilated Convolution),也被称为这种卷积思路被提出,是为了解决图像语义分割问题中下采样带来的图像分辨率降低、信息丢失这两个问题。
2024-10-23 09:59:27
108
原创 经典任务损失函数与评价指标
通过优化分布Q来拟合分布P,可以用KL散度来做为目标函数,当KL散度为0时两个分布一致。分布P是客观存在的,其信息熵为常量,把常量减去后即为交叉熵。一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉-优快云博客。可以看到KL散度在二分类问题下就是NLL负对数似然估计。以上概率也可以作为多分类任务的指标。
2024-09-12 15:40:26
908
原创 集成学习(Ensembling Learning)
决策树算法|随机森林|决策树模型|机器学习算法|人工智能共计23条视频,包括:第一章:决策树原理 1-决策树算法概述、2-熵的作用、3-信息增益原理等,UP主更多精彩视频,请关注UP账号。甚至可能导致泛化性暂时降低,但在其基础上进行后续划分却有可能导致显著提高,因此预剪枝的这种贪心本质,给决策树带来了欠拟合的风险。Gini指数越小表示集合中被选中的样本被分错的概率越小,也就是说集合的纯度越高,反之,集合越不纯。可以看出,事件发生的概率越为平均时,集合越不纯时,不确定性越大,最高为1。
2024-09-11 21:03:58
1324
翻译 transE论文阅读笔记
Translating Embeddings for Modeling Multi-relational Data论文笔记
2022-12-06 11:15:24
279
1
原创 论文笔记《AutoRec: Autoencoders Meet Collaborative Filtering》
读论文笔记《AutoRec: Autoencoders Meet Collaborative Filtering》
2022-09-07 15:13:08
619
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人