- 博客(19)
- 收藏
- 关注
原创 SQL正则表达式
SQL正则表达式REGEXP说明例子^在字符开始处进行匹配‘^a’:匹配以a开头的字符串$在字符结尾处进行匹配‘b$‘’:匹配以b结尾的字符串.匹配任何字符‘.a‘’:匹配a前有任意字符的字符串[…]匹配[]内任意单个字符‘[ab]’:匹配其中有a或b的任意字符[m-n]匹配[]内m-n的任意单个字符‘[1-3]’:匹配含有1/2...
2019-11-17 12:56:56
872
原创 梯度下降算法实现——基于矩阵的python手写(批量梯度下降、随机梯度下降、小批量梯度下降)
批量梯度下降、随机梯度下降、小批量梯度下降的python实现之前写线性回归那一块内容的时候,发过手写二元线性回归梯度下降的博,由于基于方程的写法过于复杂,于是有了这一篇基于矩阵的梯度下降实现~
2019-10-19 20:53:46
5437
2
原创 机器学习——“让树帮你做决策”之决策树(Decision Tree)(ID3,C4.5,CART,决策树剪枝)
本文主要从决策树是什么?怎么来的?如何构造?决策树的算法原理?决策树如何剪枝?入手,详细解说了决策树生长的整个过程。
2019-10-13 13:01:48
492
原创 回归树的计算流程
回归树的生成一、基于树的方法二、 回归树的生成三、CART回归树的分裂准则——最小方差法一、基于树的方法将特征空间划分成一系列长方形,然后对每个长方形拟合简单的模型(常数)拟合的模型为:f^(x)=∑(m=1)5cmI{X1,X2∈Rm}\hat f(x)=\sum_{(m=1)}^5c_m I\{X_1,X_2∈R_m\}f^(x)=∑(m=1)5cmI{X1,X2∈Rm}...
2019-10-13 11:13:51
828
原创 机器学习——“近朱者赤,近墨者黑”之KNN(k-Nearest Neighbor)及实现
KNN(K-最近邻分类器)首先通过一句彦语来引入KNN算法:“如果走像鸭子,叫像鸭子,看起来还像鸭子,那么它很可能就是只鸭子”
2019-09-19 09:00:31
1491
1
原创 KNN算法的python实现
KNN实现手写KNN代码实现案例分类sklearn 实现iris分类手写KNN代码实现案例分类上篇博客,详细计算了此案例的KNN算法过程☞详情请戳☜,下面我们通过手写python代码实现KNN算法。案例:1.导入包import numpy as npimport matplotlib.pyplot as plt%matplotlib inline2.了解数据点分布#训练数据...
2019-09-17 17:45:40
918
原创 机器学习——从感知机到BP神经网络(20分钟神经网络入门全解)附BP神经网络python代码
本文主要介绍了神经网络入门必须要了解的两个算法:感知机和BP神经网络。从人工神经网络的由来到感知机算法的原理、BP算法的原理及推导。
2019-09-14 20:24:18
2658
1
原创 机器学习入门——10分钟走进逻辑回归(Logistic Regression)附python代码
逻辑回归原理及其求解逻辑回归的由来:从线性回归到逻辑回归线性回归回顾逻辑回归逻辑回归公式推导逻辑回归的决策边界逻辑回归的求解损失函数梯度下降法求解逻辑回归逻辑回归的由来:从线性回归到逻辑回归不知道你们是否有同感,在刚接触逻辑回归算法时候,老师总是强调逻辑回归和线性回归的不同,虽然叫逻辑回归,但是完全不是回归的数值预测,而是进行分类,总是强调分类和数值预测这点的不同,很容易忽略两个算法本质上的关...
2019-09-13 11:37:04
921
原创 机器学习——线性回归衍生(过拟合、正则化、岭回归和LASSO回归)
本文首先从正规方程的局限开始,先说明为什么会在线性回归中引入正则化,其中一个最重要的原因是过拟合,再从过拟合引入正则化,最后介绍在线性回归中加入不同正则化项的方法。
2019-09-08 15:00:54
1953
1
原创 偏倚方差分解——R code
过拟合中模型复杂度和预测误差的曲线图:bias variance trade off# bias variance trade off -------------------------------------------------set.seed(1)test_size <- 50sigma <- 0.5test_x <- matrix(rnorm(test_si...
2019-09-08 13:31:37
1216
原创 手写二元线性回归梯度下降—Python代码
梯度下降法的python实现代码思路代码实现数据资料代码思路导入所需库导入所需数据数据转换—提取X,Y设置初始值事先指定系数值、学习率、迭代次数定义损失函数(二元线性回归)J(θi)=12m∑i=1m[hθ(x(i))−y(i)]2J(\theta_i)=\frac{1}{2m}\sum_{i=1}^{m}[h_\theta(x^{(i)})-y^{(i)}]^2J(θi)=2...
2019-09-08 09:41:56
2287
5
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人