
ML
文章平均质量分 79
Zetaa
Email: officeforcsdn@163.com
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
线性不可分SVM 软间隔
前言:仅个人小记。参看https://blog.youkuaiyun.com/qq_25847123/article/details/108058804。线性不可分大部分样本线性可分,总体线性不可分。 引入松弛变量某些样本点不能满足函数间隔大于等于 111 这个约束条件,软间隔策略就是对每个样本点引入一个松弛变量 ξ≥0\xi\geq 0ξ≥0。是的函数间隔加上松弛变量是大于等于 111 的。此时,之前硬间隔最大化中的约束条件更变为yi(w⋅xi+b)≥1−ξiy_i(\boldsymbol{w}\cdot原创 2020-08-17 19:31:59 · 661 阅读 · 0 评论 -
线性可分支持向量机 对偶性形式求解
前言:仅个人小记。不论是对偶还是原问题形式,都是转成二次规划问题,编程角度上来看没太大差别。但从理论角度来看,对偶性形式能够直接凸显出“内积”形式,进而可以很好地引入“核”概念。经过一系列的变换,得到对偶最优化问题为对偶形式minα12∑i=1N∑i=1Nαiαjyiyj(xixj)−∑i=1Nαis.t.∑i=1Nαiyi=1αi≥0,i=1,2,...,N\min_{\alpha}\frac{1}{2}\sum_{i=1}^{N}\sum_{i=1}^{N}\alpha_i\alpha_jy_i原创 2020-08-17 16:40:56 · 1836 阅读 · 0 评论 -
线性可分支持向量机 凸二次规划解决原问题 python
前言:仅个人小记。问题来自李航的《统计学习方法》第二版中例题 7.1。问题如图,支持向量机的训练数据集为:正例点为 x1=(3,3),x2=(4,3)x_1=(3,3),x_2=(4,3)x1=(3,3),x2=(4,3),负例点为 x3=(1,1)x_3=(1,1)x3=(1,1),求最大间隔分离超平面。最大间隔法输入: 线性可分训练数据集 T=(x1,y1),(x2,y2),...,(xN,yN)T={(x_1,y_1),(x_2,y_2),...,(x_N,y_N)}T=(x1,y原创 2020-08-17 15:06:28 · 2477 阅读 · 0 评论 -
kmeans初始中心不同结果可能不同 (举例)
本文给出 kmeans算法当初始中心点不同时,聚类结果可能是不同的实际例子。样例数据数据为101010个二维数据点,如下2,21,11,0240,100,1110,1212,1010,011,02, 2\\1 ,1\\1, 0\\2 4\\0, 10\\0, 11\\10, 12\\12, 10\\10, 0\\11, 0\\ 2,21,11,0240,100,1110,1212,1010,011,0第一次选择初始中心点以以下四个点作为初始中心点,进行k=4k=4k=4的kmea原创 2020-05-31 16:01:01 · 5983 阅读 · 1 评论 -
SVM两侧决策面逻辑梳理
申明:仅个人小记前言:主要用来解释SVM中{wTxi+b≥+1,yi=+1;wTxi+b≤−1,yi=−1\begin {cases} {w}^{T}x_i+b\ge+1,y_i=+1;\cr {w}^{T}x_i+b\le-1,y_i=-1 \end {cases}{wTxi+b≥+1,yi=+1;wTxi+b≤−1,yi=−1由来的逻辑。出现的+1和-1有点突兀。约定(1) 决...原创 2019-01-11 21:12:51 · 822 阅读 · 1 评论 -
决策树-字典结构-递归定义式
申明:仅仅个人小记前言:结合python 的 字典结构 来对决策树进行 定义 以及 构造一、定义(1) 决策树只有一个根节点决策树=根值决策树=根值决策树=根值(2) 决策树存在分叉(出现递归定义) 决策树 = { 根值:{ &n原创 2019-02-07 22:48:06 · 878 阅读 · 0 评论 -
PCA降维示意以及SVD辅助作用体现
前言:仅个人小记一ATA={A}^{T}A=ATA=原创 2019-05-07 18:21:44 · 414 阅读 · 0 评论