
机器学习
魔方科研
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习学习笔记(五)——分类
二分类问题 在分类问题中,一般不使用线性回归进行分类,因为效果很差。 在二元分类问题上,我们使用logistic回归进行分类 假设函数 在logistic回归中,有logistic函数 g(z)=11+e−z g(z)=\frac{1}{1+e^{-z}} g(z)=1+e−z1 假设函数为 hθ(x)=11+e−θTx h_\theta(x)=\frac{1}{1+e^{-\theta^Tx}...原创 2019-07-03 10:49:52 · 263 阅读 · 0 评论 -
机器学习学习笔记(一)——监督学习与无监督学习
最近LABVIEW学不下去了给自己开了新坑,在B站上跟着吴恩达学机器学习,希望这次能够坚持下去吧! 在第一章里除了介绍了机器学习的应用等等等之外介绍了两个概念,监督学习和无监督学习。 监督学习 在监督学习中,数据集是有标签的,也就是说机器在学习的时候是知道正确答案的。 这里吴老师给出了两个例子(或者我只记住两个) ...原创 2019-06-28 16:42:19 · 407 阅读 · 0 评论 -
机器学习学习笔记(二)——线性回归
基本名词解释 变量 意义 m 样本个数 x 输入数据 y 理论输出结果 (x,y) 一个样本 (xi,yi)(x^i ,y^i)(xi,yi) 第i个样本 机器学习的基本模型 找到一个函数模型,使输入数据通过这个模型更加贴近输出结果(?) 示例:线性回归 题目背景 现有某一区域的房价数据集(房间面积和对应售价),让机器测算出某一面积的房价对应的售价是多少? 使用...原创 2019-06-29 10:47:38 · 264 阅读 · 0 评论 -
机器学习学习笔记(六)——正则化
正则化 过拟合问题 在样本的特征阶数过高或者特征数量过多的情况下可能会出现过拟合问题,其表现是拟合曲线可能会完美的通过各个点,但拟合曲线没有普遍性,扭扭曲曲的,对于新的变量预测能力较差。 解决的办法是: 减少变量 正则化 正则化 正则化的方法是加入惩罚项,使一些无关紧要的变量趋近为0。 线性回归的正则化 代价函数 J(θ)=12m[∑i=1m(hθ(xi)−yi)2+λ∑j=1nθj2 J(\...原创 2019-07-04 17:18:40 · 354 阅读 · 0 评论 -
机器学习学习笔记(三)——矩阵
矩阵的表示 m*n矩阵为m行n列的矩阵。 AijA_{ij}Aij为矩阵A中第i行第j列元素。 矩阵的运算 加法和减法 对应元素各自相加,即Cij=Aij+BijC_{ij}=A_{ij}+B_{ij}Cij=Aij+Bij 矩阵的与常数的乘法和除法 矩阵中每个元素与常数相乘或相除。 矩阵与矩阵的乘法 m*n矩阵与n*o矩阵相乘结果是m*o矩阵。 矩阵相乘的运算方法是A的第i行的所有元素与...原创 2019-06-29 17:01:22 · 1109 阅读 · 0 评论 -
机器学习学习笔记(四)——特征缩放与多项式回归
多个特征 表达方法 符号 含义 n 特征的数量 Xj(i)X^{(i)}_jXj(i) 第i个样本的第j个特征 假设函数 对于多个特征的假设函数,有 hθ(x)=θ0+θ1x1+θ2x1+θ3x3+θ4x4 h_\theta(x)=\theta_0+\theta_1x_1+\theta_2x_1+\theta_3x_3+\theta_4x_4 hθ(x)=θ0+θ1...原创 2019-06-30 13:43:35 · 816 阅读 · 0 评论