
机器学习
文章平均质量分 87
爆炒小青蛙
人工智能目前只学到人工智障的水平
展开
-
Wide & Deep、DeepFM系列算法原理与优缺点对比
一、Wide & Deep模型Wide & Deep Learning 模型的核心思想是结合广义线性模型的记忆能力(memorization)和深度前馈神经网络模型的泛化能力(generalization)。利用广义线性模型从历史数据中学习特征相关性,利用深度前馈神经网络揭示隐式特征之间的相互作用。在训练过程中同时优化 2 个模型的参数,从而达到整体模型的预测能力最优。Wide...原创 2019-09-06 17:12:58 · 14570 阅读 · 0 评论 -
推荐系统-基于用户的协同过滤-python实现(基于电影数据集)
数据可以从这里下载实现过程:1、得到用户兴趣表,横轴为movie_id,纵轴为user_id2、计算任何两位用户之间的相似度或者是相关性3、取与某用户相似度最高的若干个用户的兴趣推荐给该用户(或者找到和每个用户相关系数在阈值以上的用户,并将他们喜欢的电影推荐给该用户)import pandas as pdfrom math import sqrtmovies = pd.read_...原创 2019-07-08 10:54:18 · 6203 阅读 · 2 评论 -
神经网络原理+从零创建两层神经网络(基于Python)
神经网络的参数主要有两大块,一是各神经元之间连接的权重参数,而是表示各功能神经元阈值的偏置参数。通过对损失函数使用梯度下降法,可以找到最优的权重和偏置参数,使得损失函数达到极小。神经网络原理介绍(以二层神经网络为例)如上图所示,一个简单二层神经网络包含输入层、隐层和输出层。输入的数据乘以第一层权重参数矩阵W(1)W^{(1)}W(1)后,到达隐层,经隐层的激活函数h(x)h(x)h(x)作用...原创 2019-02-26 10:11:07 · 1535 阅读 · 1 评论 -
损失函数、梯度和学习率的理解及用python实现梯度下降法
机器学习的最终目标就是获得泛化能力,而什么是泛化能力呢,就是指处理未被观察过的数据(非训练数据)的能力。一、为何要引入损失函数损失函数就是评估一个学习器“恶劣程度”的指标——即描述了当前学习器对训练数据在多大程度上不拟合、不一致。所谓让机器通过“学习”数据信息从而产生一个学习器的过程,就是去寻找最优参数,使得损失函数达到极小甚至最小的过程。而这一过程如何实现?——答案就是求导,而导数就是所谓...原创 2019-02-23 16:43:32 · 6021 阅读 · 3 评论 -
Xgboost生成新特征以及调参演示
注:本文来源于https://github.com/lytforgood/MachineLearningTrick这里只做记录、学习之用Xgboost生成新特征##导入模块使用需要根据实际情况修改xgboost参数from sklearn.model_selection import train_test_splitfrom sklearn import metricsfrom sk...转载 2019-01-11 13:57:00 · 2149 阅读 · 0 评论 -
神经网络和卷积神经网络的精度对比——以手写字体识别案例为例
关于神经网络和卷积神经网络,有一篇整理的很好的博客可供学习:https://blog.youkuaiyun.com/u014789266/article/details/53516861这里利用tensorflow库自带的mnist手写字体数据集作为例子,来分别看神经网络和卷积神经网络的识别精度。tensorflow的安装方法在我的另一篇博客里(我的环境是win10+Anaconda3.6)一、BP神经网络导...原创 2018-04-24 16:55:43 · 4249 阅读 · 0 评论 -
Python实现Logistic回归实例——信用卡欺诈检测
信用卡欺诈检测算是一个比较经典的例子了,这里记录一下python的算法。导入三个基本的包,读取数据,发现数据的不平衡性:import numpy as npimport pandas as pdimport matplotlib.pyplot as pltpath=r"D:\learning\data_for_py\creditcard.csv"data=pd.read_csv(path...原创 2018-03-26 21:19:15 · 2090 阅读 · 0 评论 -
用案例理解朴素贝叶斯以及R语言的实现
相比于一般贝叶斯而言,朴素贝叶斯设定一个naive assumption:Assume that each feature xi is conditionally independent of every feature xj for i is unequal to j, given the category C.简单一点来说,比如现在要通过颜色、形状、半径来推断一个水果是苹果还是香蕉(当然这里界...原创 2018-03-03 11:31:27 · 8854 阅读 · 2 评论 -
KNN算法以及R语言的实现
KNN(K-Nearest-Neighbour) Classifiers, 即K-近邻算法,是一种懒惰机器学习算法(lazy learning)。简而言之,它在拿到训练集数据时并不急着去建模,而是在拿到测试集数据后,再到训练集数据中去寻找该测试样本最近的“邻居”,即距离最近的K个训练样本,依照训练样本数据的所属类别,加权或不加权地得出测试数据的类别。那么应该选择多少个邻居呢,即K取值是多还是少好呢...原创 2018-03-09 11:05:13 · 18864 阅读 · 6 评论