机器学习
文章平均质量分 65
he613
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Logistic Regression(逻辑回归)基本原理与学习总结
逻辑回归原理 逻辑回归是一种广义线性模型,判别一个模型是否是线性的,可通过判别分界面是否是线性来判断的,逻辑回归的分界面是线性的。逻辑回归解决的是分类问题,由条件概率分布P(Y|X)表示,通过引入sigmoid函数,用于表示输出值的概率。 构造广义线性模型(Constructing GLMs) 要构建广义线性模型,我们要基于以下三个假设: 给定特征属性和参数后,的条件概率服从指数分布族,...原创 2019-04-08 19:58:46 · 4498 阅读 · 0 评论 -
TextCNN模型原理及理解
1.概要 TEXTCNN是由Yoon Kim在论文(2014 EMNLP) Convolutional Neural Networks for Sentence Classification中提出的,其主要思想是将不同长度的短文作为矩阵输入,使用多个不同size的filter去提取句子中的关键信息(类似于多窗口大小的ngram),并用于最终的分类。 2.网络结构 输入层: ...原创 2019-05-12 23:22:23 · 7994 阅读 · 0 评论 -
Logistic Regression 相关问题补充
逻辑回归的损失函数为什么要使用极大似然函数作为损失函数? 损失函数一般有四种,平方损失函数,对数损失函数,HingeLoss0-1损失函数,绝对值损失函数。将极大似然函数取对数以后等同于对数损失函数。在逻辑回归这个模型下,对数损失函数的训练求解参数的速度是比较快的。至于原因大家可以求出这个式子的梯度更新 这个式子的更新速度只和,相关。和sigmod函数本身的梯度是无关的。这样更新的速度...原创 2019-08-06 16:23:20 · 399 阅读 · 0 评论
分享