
机器学习与深度学习
wchzh2015
这个作者很懒,什么都没留下…
展开
-
tensorflow 学习笔记(3)-basic_example
logistic_regression原创 2017-06-20 16:48:09 · 241 阅读 · 0 评论 -
随机变量及其分布?
离散型随机变量及其分布 (0-1)分布 设随机变量X只可能取0和1的两个值,他的分布律是,则称 X 服从以p为参数的(0-1)分布或者两点分布。分布律:X 0 1 Pk 1-p p 伯努利(Bernoulli)实验、二项分布设实验 E 只有两个可能结果:A和,则称 E 为伯努利实验。设P(A) = p (0<p<...原创 2019-04-15 17:00:09 · 12906 阅读 · 0 评论 -
神经网络解决过拟合的方法
总结simpler model structure regularization data augmentation dropout Bootstrap/Bagging ensemble early stopping utilize invariance Bayesian定义过拟合(overfitting)是指在模型参数拟合过程中的问题,由于训练数据包含抽样误差,...原创 2019-04-13 16:55:40 · 18412 阅读 · 0 评论 -
深度学习中损失函数有哪些?
待更新原创 2019-04-21 11:33:28 · 1182 阅读 · 0 评论 -
深度学习优化函数
这里添加的是我学习中看到的博客,后期有空整理知识点,你也可以点开链接看看。学习博客:深度学习优化函数详解原创 2019-05-03 16:20:25 · 415 阅读 · 0 评论 -
交叉熵损失函数
这里添加的是我学习中看到的博客,后期有空整理知识点,你也可以点开链接看看。学习博客:一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉...原创 2019-05-03 16:23:33 · 131 阅读 · 0 评论 -
逻辑回归
学习博客:逻辑回归的常见面试点总结原创 2019-04-28 21:31:11 · 162 阅读 · 0 评论 -
VNet
待更新:原创 2019-06-18 21:53:45 · 3218 阅读 · 1 评论 -
keras 简单的分类实例
这段程序是使用keras进行深度学习分类问题。比较简单,将每个类别单独保存在一个文件夹中,然后包含所有类别的文件夹在放在同一个文件夹下面。比如下面所示:train/ cat/ dag/下面的代码写的是9分类的问题,代码:from keras.applications.inception_v3 import InceptionV3from ...原创 2019-06-11 19:19:32 · 1072 阅读 · 0 评论 -
ResNet 18 的结构解读
现在很多网络结构都是一个命名+数字,比如(ResNet18),数字代表的是网络的深度,也就是说ResNet18 网络就是18层的吗?其实这里的18指定的是带有权重的 18层,包括卷积层和全连接层,不包括池化层和BN层。下面先贴出ResNet论文中给出的结构列表。对 Pytorch 中ResNet18网络的源码分析(这里),我画出了大致的网络结构图。可以看出,数字 18 = 17 个...原创 2019-06-27 16:00:40 · 141039 阅读 · 19 评论 -
Boosting
博客出于待完善阶段,Boosting 算法是一种加法模型(additive training)原创 2019-04-01 20:44:18 · 148 阅读 · 0 评论 -
梯度提升树,GBDT
博客出于待整理状态GBDT的原理在参考文献的第一篇博客中,我就不再详述它的原理了。图1-3主要是参考文献第二篇文章中的。为了学习了解相关概念。图1图2图3图4图5优点,缺点与XGboost的不同。(实际上GBDT泛指所有梯度提升树算法,包括XGBoost,它也是GBDT的 一种变种,这里为了区分它们,...原创 2019-04-01 20:02:51 · 293 阅读 · 0 评论 -
tensorflow 学习笔记(2)-basic_example
linear_regression原创 2017-06-19 17:48:57 · 349 阅读 · 0 评论 -
tensorflow 学习笔记(1)-introduction
学习机器学习TensorFlow的入门简单的基本操作。原创 2017-06-18 17:33:33 · 411 阅读 · 0 评论 -
tensorflow 学习笔记(4)-basic_example
nearest neighbor algorithm原创 2017-06-21 19:23:39 · 286 阅读 · 0 评论 -
python if __name__ = '__main__'
编排得好一点的脚本或者程序里面都有这段if name == ‘main’:1、这段代码的功能,第一是直接作为脚本执行,第二是import到其他的python脚本中被调用(模块重用)执行。在if __name__ == 'main': 下的代码只有在第一种情况下(即文件作为脚本直接执行)才会被执行,而import到其他脚本中是不会被执行的。举个例子,下面在test.py中写入如下代码: pri原创 2017-10-29 21:35:04 · 767 阅读 · 0 评论 -
神经网络-损失函数
看到一篇不错的神经网络损失函数的讲解,感谢博主的睿智。http://blog.youkuaiyun.com/zr459927180/article/details/50750736转载 2017-11-12 10:05:30 · 394 阅读 · 0 评论 -
Convolution model - Step by Step - v2
Convolutional Neural Networks: Step by StepWelcome to Course 4’s first assignment! In this assignment, you will implement convolutional (CONV) and pooling (POOL) layers in numpy, including both forward原创 2017-12-05 21:21:20 · 2343 阅读 · 1 评论 -
决策树
博客出于待完善学习状态熵的概念信息增益信息增益比基尼指数ID3C4.5CART(Classification And Regression Tree)如何剪枝,如何处理缺失值如何处理连续值?还有进一步的集成模型里选取的决策树,比如随机森林里用的哪种决策树,GBDT利用的哪种决策树?如果考虑特征相关性问题,有没有这样的决策树算法处理这方面的问题。...原创 2019-04-01 10:28:59 · 115 阅读 · 0 评论 -
机器学习与深度学习算法集锦
本博客出于不断学习和完善更新中,会有错误之处,还请指出更正。 机器学习 逻辑回归 决策树 XGboost 随机森林 梯度提升树,GBDT LightGBM Boosting 算法 贝叶斯网络 EM HMM 随机变量及其分布? 深度学习 神经网络解决过拟合的方法 深度学习优化函数详解 交叉熵损失函数 深度学习常用损失函数...原创 2019-04-01 10:29:40 · 376 阅读 · 0 评论 -
numpy中的 stack,vstack, hstack, dstack,
stack():沿着指定的轴加入一系列数组。 vstack():堆栈数组垂直方向 hstack():堆栈数组水平方向 dstack():堆栈数组按顺序深入(沿第三维)。import numpy as np a= np.array([1,2,3]).reshape((3,1))print(a.shape)b = np.array([4,5,6]).reshape((3,1))...原创 2019-06-27 13:40:34 · 363 阅读 · 0 评论