- 博客(14)
- 收藏
- 关注
原创 常用激活函数Sigmoid & Softmax & ReLU& Tanh的整理总结
激活函数使用原因:1、如果不用激励函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。2、如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。比如,在单层感知机中,分类的结果大于某个值为一类,小于某个值为一类,这样的话就会使得输出结果在这个点发生阶跃,logistic函数(sig...
2019-11-08 23:36:43
2385
原创 深度学习tensorflow:正则化
是调整x的形状为一列,这种编码方式也非常优雅。记得插入一列1。梯度公式,上面那段代码是此公式的实现。以下为代价函数:注意对比上下两端代码中as_ndarry值的变化带来的结果的变化zhuyi以上代码要留意参数 l 的变化。...
2019-09-21 15:15:11
345
原创 吴恩达机器学习编程作业2:logistic_regression(逻辑回归)
Markdown 0 字数 2 行数 当前行 2, 当前列 0HTML 0 字数 0 段落
2019-08-19 14:37:58
801
原创 吴恩达机器学习编程作业1:Python实现线性回归
吴恩达机器学习作业:线性回归1.单变量线性回归2.batch gradient decent(批量梯度下降)1.单变量线性回归导入需要使用的包import numpy as npimport pandas as pdimport matplotlib.pyplot as plt导入数据集。提醒大家:一定要把数据文件ex1data1.txt放在和程序同一个文件夹里,否则需要使用绝对路径...
2019-08-13 11:23:06
963
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅