
机器学习
Geek_sun
为梦想而努力。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
李宏毅机器学习作业二Classification:年收入分类
1作业任务 二元分类是机器学习中最基础的问题之一,在这份教学中,你将学会如何实作一个线性二元分类器,来根据人们的个人资料,判断其年收入是否高于50000美元。我们将以两种方法:logistic regression与generative model,来达成以上目的,你可以尝试了解、分析两者的设计理念及差别。 2原始代码 导入数据集 X_train_fpath = './data/X_train' Y_train_fpath = './data/Y_train' X_test_fpath = './data/原创 2020-08-14 18:49:34 · 1466 阅读 · 0 评论 -
统计学习方法-第2章感知机算法代码实现
第2章 感知机 1.感知机是根据输入实例的特征向量x对其进行二类分类的线性分类模型: f(x)=sign(w⋅x+b) f(x)=\operatorname{sign}(w \cdot x+b) f(x)=sign(w⋅x+b) 感知机模型对应于输入空间(特征空间)中的分离超平面w⋅x+b=0w \cdot x+b=0w⋅x+b=0。 2.感知机学习的策略是极小化损失函数: minw,bL(w,b)=−∑xi∈Myi(w⋅xi+b) \min _{w, b} L(w, b)=-\sum_{x_{i}原创 2020-07-31 21:53:25 · 538 阅读 · 0 评论 -
李宏毅机器学习作业一Linear Regression:预测PM2.5
作业任务: 本次作业使用丰原站的观测记录,分成train set跟test set,train set是丰原站每个月的前20天所有数据。test set则是从丰原站剩下的数据中取样出来。原创 2020-07-30 21:10:12 · 978 阅读 · 0 评论 -
机器学习实战 k-近邻算法
简单的说,k-近邻算法采用测量不同特征值之间的距离方法进行分类。 优点:精度高、对异常值不敏感、无数据输入假定。 缺点:计算复杂度高、空间复杂度高。 适用数据范围:数值型和标称型。 试用k-近邻算法改进约会网站的配对效果 from numpy import * import operator import os def creatDataSet(): group = arr...原创 2019-09-03 19:59:14 · 206 阅读 · 0 评论