- 博客(9)
- 收藏
- 关注
原创 花书和统计课程 目录
目录花书统计知识第五章 机器学习基础花书第五章机器学习基础_dbw794363172的博客-优快云博客第六章 深度前馈网络第七章 深度学习中的正则化第八章 深度模型中的优化花书第六章 第七章 第八章_dbw794363172的博客-优快云博客第九章 卷积网络第十章 序列建模:循环和递归网络第十一章 时间方法论第十三章 线性因子模型第十四章 自编码器花书第九章 第十章 第十一章 第十三章 第十四章_dbw794363172的博客-优快云博客第十五章 表示学习第十六章 深度学习中的结构化概率模型第十七章
2022-07-06 20:22:56
281
原创 花书 第十五章 第十六章 第十七章 第十八章
目录表示学习深度学习中的结构化概率模型蒙特卡罗方法——答案具有随机大小的错误,可得到近似解。直面配分函数
2022-07-06 17:11:23
305
原创 花书第九章 第十章 第十一章 第十三章 第十四章
目录卷积网络——专门用来处理具有类似网格结构的数据神经网络。序列建模:循环和递归网络实践方法论线性因子模型自编码器
2022-07-06 17:10:34
709
原创 机器学习统计学常用知识
6.逻辑斯蒂回归与最大熵模型——分类 逻辑斯蒂回归 逻辑斯蒂分布 F(x)是分布函数和f(x)是密度函数 二项逻辑斯蒂回归模型——由条件概率分布p(Y|X)表示的逻辑斯谛分布 随机变量X取值为实数,随机变量Y取值为1//0 多项逻辑斯蒂回归 这是假设离散型随机变量Y 最大熵模型 最大熵原理 .......................................
2022-06-18 21:40:50
197
原创 最大似然估计和贝叶斯
最大似然估计:通过事实推参数,随着事实的不断变化,参数也随之改变, 先假定一个参数,然后计算实验结果的概率是多少,概率越大的,那么这个假设的参数就越可能是真的。贝叶斯:是考虑到了一方面,同时考虑到了另一方面。新信息出现A的概率=A概率*新信息带来的调整。就是在实践的过程中不断修正参数。区别: 极大似然估计认为参数是客观不变的,通过事实逐渐接近他; 贝叶斯认为参数是随机的,靠样本估计它。...
2022-04-14 20:07:29
393
原创 花书第五章机器学习基础
1.学习算法 对于某类任务 T 和性能度量P,一个计算机程序被认为可以从经验 E 中学习是指,通过经验 E 改进后,它在任务 T 上由性能度量 P 衡量的性能有所提升。 常见学习任务 任务:机器学习系统如何处理样本(样本是从要处理的对象中收集到的已经量化的特征的集合) 输入缺失分类:当输入向量的每个度量不被保证的时候,学习算法只需要定义一个从输入向量映射到输出类别的函数 回归:对输入给输出 转录:观测一些相对非结构化表示的数据,并转录信息为离散的文本形...
2022-04-12 17:51:59
752
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人