
机器学习学习之旅
文章平均质量分 91
wujiekd
做你认为正确的事。https://wujiekd.github.io/zh-cn
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习单变量线性回归
首先,非常感谢斯坦福的教授吴恩达!!1.假设函数(hypothesis fuction)参数未知2.代价函数(cost fuction)又称平方误差函数取1/2是为了后面的计算,求偏导省去,说白了就是为了少计算3.决策函数参数已得到,可进行预测假设θ0取0,只讨论θ1,θ1的变化会导致代价函数的取值变大,我们想要的是代价函数小的时候的取值(即θ1取1的时候),这样得到的决策函数进...原创 2019-04-21 23:03:17 · 420 阅读 · 0 评论 -
机器学习二分类问题
看下图:先从一个简单的二分类问题开始讨论:看名字:不要看名字是逻辑斯蒂回归(由于历史原因),但其实是一种分类算法,不用过于纠结因为线性回归模型产生的预测值是实值,于是我们需要将其转化为0/1值,最理想是单位阶跃函数,但因为其不连续,因此我们想到了逻辑斯蒂函数(也叫对数几率函数),也是一种Sigmoid函数(即形似S的函数)...原创 2019-04-27 13:21:24 · 10169 阅读 · 2 评论 -
机器学习多变量线性回归
支持多变量的假设 表示为:这个公式中有n+1个参数和n个变量,为了使得公式能够简化一些,引入x0=1,则公式转化为:此时模型中的参数是一个n+1维的向量,任何一个训练实例也都是n+1维的向量,特征矩阵X的维度是m*(n+1)。 因此公式可以简化为:,其中上标代表矩阵转置。其他部分跟单变量差不多,直接到关键求θ1.多变量梯度下降下图右下角则是tui’guang两个地方需要注意:...原创 2019-04-23 20:29:17 · 288 阅读 · 0 评论 -
机器学习多分类(一对多)问题
直接上图,分三类!这里还是巧妙地运用到逻辑斯蒂回归的吖,巧妙地转化为了三个二分类问题,将会得到3个分类器从前面我们可以知道,其实得到的函数值返回就是是正类的概率,三个分类器得到3个概率,最大的那个对应的那类则是答案...原创 2019-05-13 00:35:53 · 4092 阅读 · 3 评论 -
机器学习正则化问题
前言:因为经常出现欠拟合和过拟合的问题,欠拟合好处理,过拟合一般有两个处理的方法:1.减少选取的变量 模型选择算法2.正则化 保留所有特征变量,减少量级或参数的大小(L2正则化)正则化其实就是给目标函数增加一个惩罚项,使得模型更倾向于使用更加简单的模型,以防止过拟合两个正则化:L1正则化范数:符合拉普拉斯分布,是不完全可微的。表现在图像上会有很多角出现。这些角和目标函数的接触机会远...原创 2019-05-13 00:55:44 · 555 阅读 · 0 评论 -
不同阶多项式拟合某正弦曲线(基于python,tensorflow,matlab)
但不得不说的是Matlab只需五行代码就解决了~import tensorflow as tfimport numpy as npimport matplotlib.pyplot as pltx_data = np.linspace(0, 1,11)y_data = 0.5 + 0.4 * np.sin(2 * np.pi * x_data)plt.scatter(x_data, ...原创 2019-07-30 19:21:48 · 2309 阅读 · 0 评论 -
利用 BP 算法及 sigmoid 函数对y=sin(x)进行拟合训练,测试(基于python)
4.采用了python的误差逆传播算法,简称BP,把训练集,测试集,训练结果,还有误差的变化情况都输出看看隐藏层现在了10个神经元,其实差不多了的,但可以确定的是在一定范围内神经元个数的增加对拟合效果是呈正相关的(这里没有用图像证明这个问题),但对于这类不算复杂的问题,过多会产生过拟合现象,于是选择在迭代次数上增加从而产生非常不错的训练效果,但是训练的时间会大大延长import numpy a...原创 2019-07-30 22:12:22 · 5894 阅读 · 12 评论 -
机器学习中迹运算符和导数的一些结论
因为公式难写,字丑,自己整理了一下并且把结论附上,不喜勿喷。证明:结论一:https://blog.youkuaiyun.com/zhangchao19890805/article/details/78160263A,B不一定得是方阵结论二:利用一的结论结论三四简单结论五就是一二的转型...原创 2019-08-31 22:04:21 · 467 阅读 · 0 评论