- 博客(219)
- 资源 (2)
- 收藏
- 关注

原创 大白话5分钟带你走进人工智能系列-------目录
目录 大白话5分钟带你走进人工智能-第一节开篇介绍以及线性回归简介篇 大白话5分钟带你走进人工智能-第二节概率基础及高斯分布 大白话5分钟带你走进人工智能-第三节最大似然推导m...
2019-12-12 10:36:42
2489
2

原创 大白话5分钟带你走进人工智能-第36节神经网络之tensorflow的前世今生和DAG原理图解(4)
目录1、Tensorflow框架简介2、安装Tensorflow3、核心概念4、代码实例和详细解释5、拓扑图之有向无环图DAG6、其他深度学习框架详细描述6.1 Caffe框架:6.2 Theano框架:6.3 Keras框架:1、Tensorflow框架简介Tensorflow由Google Brain谷歌大脑开源出来的,在2015年11月在GitHu...
2019-08-05 23:51:36
1114

原创 大白话5分钟带你走进人工智能-第35节神经网络之sklearn中的MLP实战(3)
本节的话我们开始讲解sklearn里面的实战:先看下代码:from sklearn.neural_network import MLPClassifierX = [[0, 0], [1, 1]]y = [0, 1]clf = MLPClassifier(solver='sgd', alpha=1e-5, activation='logistic', ...
2019-07-26 11:53:45
1302
1

原创 大白话5分钟带你走进人工智能-第34节神经网络之多神经网络概念(2)
目录1、回顾:2、常见的激活函数都有哪些?3、多层神经网络里面故事:4、如何训练神经网络?1、回顾:回顾下之前学习的内容。人工神经网络里面有重要的三条内容,一个是加和,加function,把前面的输入所对应模型的权重相乘相加,第二经过一个非线性变化,第三signal out输出。如果把function设置为Sigmoid函数,它相当于是一个逻辑回归。2、常见的激活函数都...
2019-07-25 17:56:38
926
原创 浅谈Graph Embedding(一)
本文主要介绍Graph Embedding算法背景引入和Graph Embedding 介绍以及Graph Embedding算法之Deep Walk
2023-02-03 16:05:34
852
原创 一文读懂深度学习中文本处理的4种方式
文本处理方式是深度学习领域中自然语言处理的基础,即把文本转变成计算机识别的语言过程。转变之后才能用算法做后续的文本分析和理解。所以有必要了解文本处理的几种方式,做到对不同的场景采用不同的处理方式。常见的文本处理方式有独热编码(one-hot),词袋法(Bag of words),TF-IDF和词向量(Word2Vec)这4种,我们分别为大家解释。
2023-01-03 16:42:12
2086
5
原创 神经网络的类型分类和结构理解
神经网络按照不同的分类方式,会有多种形式的划分。第一种分类方式是按照类型来分,包含两种类型,分别为前馈神经网络和反馈神经网络。掌握神经网络层与层之间的结构后,会有助于我们对神经网络的理解,从而更好的理解参数模型,找到算法合适的参数。
2022-12-07 21:05:48
7325
1
原创 详细步骤Window中Docker的安装--亲测可用
1、安装docker toolboxhttps://docs.docker.com/toolbox/toolbox_install_windows/2、双击启动 以管理员身份启动 ~下载镜像(如果遇到下载问题,手动下载)地址如下:按照自己的版本即可https://github.com/boot2docker/boot2docker/releases/download/v19.03.12/boot2docker.iso3、替换位置如下:...
2021-01-12 18:00:00
435
原创 新年第一篇---算法浅谈
一、前述2020是不平凡的一年。展望2021,希望大家都能有所收获。在此谈下算法方面的工作。二、工作类别目前算法工作的话,第一类是数据挖掘,它包含的知识,跟机器学习相关度会更大,包含常规的数据挖掘以及推荐算法。在数据挖掘里面,要单独的会机器学习的特征工程,和其它的领域的知识,比方金融公司,可能要知道一些金融公司业务方面的知识。数据挖掘,可能有几个附加的知识也需要知道,有的数据挖掘岗,它需要一些机器学习和大数据的组合,还有一种是机器学习的知识,加上自然语言处理的这方面。 新浪微博的数据挖掘岗,
2021-01-01 17:55:29
397
原创 大白话5分钟带你走进人工智能-第41节神经网络之TensorBorad的应用
一、前言我们为什么要存日志?因为我们希望通过tensorboard组件让它来读日志,然后分析这个日志之后,在外部页面给我们展示tensorflow一个流程,整个的计算图。存日志所放的路径跟我们后面启动tensorboard组件所要读取的路径必须是一致的。那如何启动tensorboard呢?在python里面,先导入tensorflow,然后导入tensorboard,在安装的时候,它自动给...
2020-10-24 14:53:33
640
1
原创 大白话5分钟带你走进人工智能-第42节神经网络之CNN从详述到应用
一、背景前言先看下人眼看到物体的情况:眼睛里一个神经元,它会盯着图像,但它并不会盯着图像的每一个像素,它只会盯着图像的一部分。盯的一部分,称为叫感受野,也就是感受的一部分。另外一个神经元它又会盯着另外的一部分。但是它们有重叠。这就相当于一些神经元看线, 另外一些神经元会看线的方向,然后组合底层的一些图案,所以底层看到的这个线、方向组合成一些更大的感受野,然后组成一些基础图像,基础图像再...
2020-09-07 16:37:52
678
1
原创 大白话5分钟带你走进人工智能-第40节神经网络之调优神经网络的超参数
神经网络有着灵活性,同时也是算法的主要缺点:需要有许多超参数需要去调节。比如隐藏层及神经元个数,轮次,每一轮次给多少数据,学习率,对于神经网来说,有很多超参数可以调节。层数,每层的神经元数,在每层使用的激活函数,初始化权重的逻辑,等等你怎么知道哪种组合最适合你的任务?站在机器学习角度来说,可以去使用grid search,cross validation就是交叉熵验证加上栅格搜索,但是它在深度学习里用的并不多,它特别的费时间,它要跑很多遍。在深度学习里就是奔着过拟合去调,调过了只是说明结果已经出现过
2020-05-09 16:11:42
1277
1
原创 大白话5分钟带你走进人工智能-第39节神经网络之DNN网络的layer功能实现
目录一、背景前言二、DNN概述三、手写DNN实现逻辑四、调用Tensorflow代码构建DNN五、模型保存和使用六、提升准确率方案七、引申和总结--零初始化,梯度消失和反向传播一、背景前言我们先看下SoftMax的代码:#!/usr/bin/python# -*- coding: UTF-8 -*-# 文件名: 12_Softmax_regressio...
2020-05-09 16:06:12
1308
原创 大白话5分钟带你走进人工智能-第38节神经网络之TensorFlow利用梯度下降法求解最优解(6)
先看一个传统方法手动实现线性回归和MSE损失函数的方案:import tensorflow as tfimport numpy as npfrom sklearn.datasets import fetch_california_housingfrom sklearn.preprocessing import StandardScaler#多元线性回归是一个凸函数 ,所以能找到全局...
2020-05-08 18:20:42
1198
4
原创 值得看!!!---大白话5分钟带你走进人工智能-第32节集成学习之最通俗理解XGBoost原理和过程
大白话系列更新了~~链接如下:https://blog.youkuaiyun.com/LHWorldBlog/article/details/103504725目录如下:本节讲解XGBoost的原理~目录1、回顾:1.1 有监督学习中的相关概念1.2 回归树概念1.3 树的优点2、怎么训练模型:2.1 案例引入2.2 XGBoost目标函数求解3、XGB...
2020-01-03 12:05:21
1130
3
原创 大白话5分钟带你走进人工智能 - 第二十一节 牛顿法和L-BFGS求函数最优解
第二十一节 牛顿法和L-BFGS求函数最优解这一节中,我们讲解一个新的求函数最优化的方法就是L-BFGS。以下是本节目录。 目录1-L-BFGS算法简介2-牛顿法求根问题3-牛顿法求驻点问题4-牛顿法求驻点的本质5-多元函...
2019-12-12 11:46:17
831
原创 大白话5分钟带你走进人工智能-第30节集成学习之Boosting方式和Adaboost
目录1、前述:2、Bosting方式介绍:3、Adaboost例子:4、adaboost整体流程:5、待解决问题:6、解决第一个问题:如何获得不同的g(x):6.1 我们看下权重与函数的关系:6.2 gt和un的关系数学公式表达:6.3 引导Un+1的思路:6.4 推导Un+1的由来:6.5 规划因子的由来:7、解决第二个问题:α的计算:...
2019-12-12 11:15:25
1208
原创 大白话5分钟带你走进人工智能-第31节集成学习之最通俗理解GBDT原理和过程
目录1、前述2、向量空间的梯度下降:3、函数空间的梯度下降:4、梯度下降的流程:5、在向量空间的梯度下降和在函数空间的梯度下降有什么区别呢?6、我们看下GBDT的流程图解:7、我们看一个GBDT的例子:8、我们看下GBDT不同版本的理解:1、前述从本课时开始,我们讲解一个新的集成学习算法,GBDT。首先我们回顾下有监督学习。假定有N个训练样本,, 找到一...
2019-12-12 11:11:34
757
原创 大白话5分钟带你走进人工智能-第三节最大似然推导mse损失函数(深度解析最小二乘来源)(1)
第三节最大似然推导mse损失函数(深度解析最小二乘来源) 在第二节中,我们介绍了高斯分布的来源,以及其概率密度函数对应的参数的解释。本节的话,我们结合高斯分布从数学原理部分解释为什么损失函数是最小二乘。 我们再来回归下高斯分布的概率密度函数实际上是这个形式的:f(x)=1σ2πe−(x−u)22σ2f(x)=\frac{1}{\sigma ...
2019-12-11 11:59:03
1632
2
原创 大白话5分钟带你走进人工智能-第四节最大似然推导mse损失函数(深度解析最小二乘来源)(2)
第四节最大似然推导mse损失函数(深度解析最小二乘来源)(2) 上一节我们说了极大似然的思想以及似然函数的意义,了解了要使模型最好的参数值就要使似然函数最大,同时损失函数(最小二乘)最小, 留下了一个问题,就是这两个因素或者目的矛盾吗?今天我们就接着上面的问题继续解剖下去。 我们再来回顾下似...
2019-12-11 11:51:53
1128
2
原创 大白话5分钟带你走进人工智能-第五节解析解方式求解模型参数
第五节解析解方式求解模型参数 第四节中我们讲解了最大似然和最小二乘之间的关系,通过数学原理找到了损失函数为MSE的理论支撑。本节的话我们讲解怎么样基于目标函数为MSE的情况下,找到最合适的参数模型。在此之前,我们总结下通过最大似然估计建立目标函数思...
2019-12-11 11:33:47
1399
原创 大白话5分钟带你走进人工智能-第二节概率基础及高斯分布
第二节:概率基础及高斯分布上一节中我们讲述了机器学习的常规套路,以及一些基础的概念,比如损失函数,随机变量等。了解了线性回归中的损失函数是最小二乘,那么本节我们通过数学的角度证明为什么是最小二乘?所以有必要铺垫一个很重要的概率密度函数,高斯分布。...
2019-10-28 17:58:18
2791
8
原创 大白话5分钟带你走进人工智能-第一节开篇介绍以及线性回归简介篇
一、前述 一直以来都想用很简介或者很普通的方式聊下各个算法的前龙后脉,让更多的人都能看懂算法的过程。查看了网上很多博客,不是写的太笼统就是抄来抄去,根本没有阅读的欲望,很是让人浪费时间,也学不到真正的东西,一直半解。因为年前一直在忙着公司上...
2019-10-28 17:56:53
12260
10
原创 强势回归~大白话5分钟带你走进人工智能之第39节神经网络之DNN网络的layer功能实现
因为最近发生了很多事情,导致博文停更,对深爱大白话的AI迷们说声抱歉。经历了深思深思再深思的深思 ,L先生决定将后面的文章设置收费模式。~~~~。主要基于以下原因:1、因为是象征性的收费,大家会更加认真的去看每一篇博文。这样有利于提出针对性的问题,一起进步。2、L先生写文真的不易~~~。每一篇文章都是精心打磨,包括配图,举例。而且抽出的时间去写文章的时间占据了业余90%的时间。...
2019-10-17 21:46:37
804
1
原创 大白话5分钟带你走进人工智能-第37节神经网络之反向传播详细案例及解释(5)
目录1、反向传播前述:2、第一个案例解说反向传播:3、通用案例形式:4、逻辑回归案例:5、总结:1、反向传播前述:我们知道正向传播就是把x拿下来一层层的和w乘,然后经过function非线性变化,最后得到一个y输出结果。反向传播(reverse-mode autodiff)就是反过来,从最后的y到x,反向的自动求导。前向传播是make predictions,去预测ŷ,...
2019-08-14 14:27:17
1633
1
原创 大白话5分钟带你走进人工智能-第33节神经网络和神经元概念(1)
目录1、前述2、神经网络实例与概念3、神经元结构4、神经元拓扑总结5、逻辑回归和神经元神经网络的关系1、前述不少小伙伴反应为什么没有神经网络的文章,因为现在那么主流。其实本打算更新完算法的基础篇之后再更新神经网络的文章。但是小伙伴的心情是急切的,所以也为了迎合大家的呐喊~~。从本节开始我们就开始神经元算法的学习了。这将是一个很有意思的事情。前面基础学习还有几节...
2019-07-25 13:59:18
2157
原创 大白话5分钟带你走进人工智能-第二十九节集成学习之随机森林随机方式 ,out of bag data及代码(2)
大白话5分钟带你走进人工智能-第二十九节集成学习之随机森林随机方式 ,out of bag data及代码(2)上一节中我们讲解了随机森林的基本概念,本节的话我们讲解随机森林的随机方式,以及一些代码。目录1-随机森林随机方式2-out of baf data3-代码1-随机森林随机方式 我们先来回顾下随机森林中都有哪些...
2019-05-18 22:07:27
1534
原创 大白话5分钟带你走进人工智能-第二十八节集成学习之随机森林概念介绍(1)
第二十八节集成学习之随机森林概念介绍(1)从本系列开始,我们讲解一个新的算法系列集成学习。集成学习其实是怎么样去应用决策树解决一些问题。在机器学习领域集成学习是一种非常简单直接的提升分类器回归器预测效果的一种思路。决策树有一个困境,当层数太深的时候会有过拟合问题,当我不想过拟合,就通...
2019-05-18 16:56:21
847
原创 大白话5分钟带你走进人工智能-第二十七节决策树系列之预剪枝和后减枝和叶子结点如何表达(6)
第二十七节决策树系列之预剪枝和后减枝(6)上一节中我们讲解了决策树中的回归树的问题Cart树,我们再来回顾下,决策树的四个问题。1、它分几支。2、它怎么判断分裂条件。有Gini系数,MSE等。3、它什么时候停止?4、叶子节点怎么表达。对于分类来说是类别,对于回归来说是叶子节点内的...
2019-05-16 22:10:44
755
原创 大白话5分钟带你走进人工智能-第二十六节决策树系列之Cart回归树及其参数(5)
第二十六节决策树系列之Cart回归树及其参数(5)上一节我们讲了不同的决策树对应的计算纯度的计算方法,其实都是针对分类来说,本节的话我们讲解回归树的部分。目录1-Cart回归树的概念1-代码详解1-Cart回归树的概念对于回归树来说,之前咱们讲的三个决策树(ID3,C4.5...
2019-05-16 21:13:24
1077
原创 大白话5分钟带你走进人工智能-第二十五节决策树系列之信息增益和信息增益率(4)
第二十五节决策树系列之信息增益和信息增益率(4)上一节我们讲解了决策树的分裂条件以及评估纯度的其中一个方式,基尼系数。本节的话,我们再讲解一个评估纯度的方式,基于信息增益的方式,即ID3树使用的评估方式。它办的事跟Gini系数一样,也是评价纯度,但是它更客观一点,但它算起来比Gini系...
2019-05-14 03:00:29
1409
原创 大白话5分钟带你走进人工智能-第二十四节决策树系列之分裂流程和Gini系数评估(3)
第二十四节决策树系列之分裂流程和Gini系数评估(3)上一节中我们讲解了决策树的数学表达形式,本节的话我们讲解决策树的分裂流程以及分裂条件的评估。我们基于决策树的递归表达式上: 就可以知道训练一颗决策树需要哪些条件?台湾大学林轩田教授给我们一个总...
2019-05-12 17:40:13
1230
原创 大白话5分钟带你走进人工智能-第二十三节决策树系列之特点和数学表达形式(2)
第二十三节决策树系列之特点和数学表达形式(2)上节我们讲解了决策树的概念,本节的话我们讲解决策树的特点以及其数学表达形式。目录1-决策树的特点2-决策树的数学表达形式1-决策树的特点决策树的特点大致有以下几种:1、可以处理非线性问题。逻辑回归处理非线性问题有一些捉襟见肘,没有特别...
2019-05-09 14:18:35
941
原创 大白话5分钟带你走进人工智能 - 第二十二节决策树系列之概念介绍(1)
第二十二节决策树系列之概念介绍(1)本系列我们讲一个新算法及其衍生出来的系列算法,决策树,随机森林以及集成学习。无论是线性回归,逻辑回归,SVM,最大熵模型也好,都是w做参数,而我们的最终结果无论需要预测还是要分类,都是把x跟w互相搞一搞,然后得出一个结果。我们的y是通过x跟自己学的参数计算出来的,而...
2019-05-05 22:25:49
961
原创 大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5)
大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5)上一节中,我们讲解了逻辑回归的优化,本节的话我们讲解逻辑回归做多分类问题以及传统的多分类问题,我们用什么手段解决。先看一个场景,假如我们现在的数据集有3个类别,我们想通过逻辑回归建模给它区分出来。但我们知道逻辑回归本质上是区分二分类的算法模型。难道没有解决办法了吗?...
2019-05-01 18:42:20
1299
原创 大白话5分钟带你走进人工智能-第十九节逻辑回归之优化点(4)
第十九节逻辑回归之优化点(4)上一节中我们讲解了逻辑回归导函数求解的问题,一步步推导出交叉熵损失函数的梯度。很是不容易,这节中我们一起看下逻辑回归的优化有哪些点?第一点关于逻辑回归优化:和多元性回归是一模一样。要不要设置w0?比如下图:之前说多元性回归是做拟合,...
2019-05-01 02:11:47
864
原创 大白话5分钟带你走进人工智能-第十八节逻辑回归之交叉熵损失函数梯度求解过程(3)
第十八节逻辑回归之交叉熵损失函数梯度求解过程(2)上一节中,我们讲解了交叉熵损失函数的概念,目标是要找到使得损失函数最小的那组θ,也就是l(θ)最大,即预测出来的结果在训练集上全部正确的概率最大。那我们怎么样找到我们的最优解呢?上节中提出用梯度下降法求解,本节的话我们对其具体细节展开。先来看下我们...
2019-04-30 19:20:12
1197
原创 大白话5分钟带你走进人工智能-第十七节逻辑回归之交叉熵损失函数概念(2)
第十七节逻辑回归之交叉熵损失函数概念(2)上一节中我们讲解了逻辑回归是做分类的原因,本节的话我们讲解逻辑回归的损失函数-交叉熵损失函数。逻辑回归,是要做分类的,最重要的是要去分界,这个逻辑回归它是怎么找分界?首先它有回归两个字,我们可以转成另外两个字,拟合。所以逻辑回归找...
2019-04-29 17:38:08
1190
原创 大白话5分钟带你走进人工智能-第十六节逻辑回归之分类的原因(1)
第十六节逻辑回归做分类的原因(1)从本节开始,我们讲解一个新的算法,逻辑回归。多元性回归是做回归的,它真的是回归这个领域里面的一个算法。对于有监督机器学习来说,除了做回归还可以做分类。逻辑回归是一个分类的算法。回归跟分类它俩都是有监督的机器学习,有什么区别呢?区别在于y。...
2019-04-28 22:00:14
1501
经典CNN论文.zip
2019-12-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人