
AI学习笔记
文章平均质量分 63
HeinSven
发表,是对技术最好的记忆。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
numpy的使用
import numpy as np np.random numpy.random.normal(loc=0.0, scale=1.0, size=None) 输出均值为0,标准差为1的一个随机值 #产生的随机数服从标准正态分布0-1,2行4列矩阵np.random.randn(2,4) 结果: [[-0.08302365 0.36937819 0.08568024 -1.5608...原创 2019-01-19 19:59:44 · 172 阅读 · 0 评论 -
《Python数据挖掘入门与实践》—— 学习笔记(一)
简介: 1、Python开发平台IPython提供多种Python开发工具和开发环境,比标准解释器多出好多功能。 2、IPython Notebook功能强大,可在Web浏览器中编写程序,可为代码添加样式,添加注释,显示运行结果,适合做数据分析。 安装IPython: pip install ipython[all] 运行: ipython3 notebook 上述命令完成了主...原创 2019-02-07 00:45:00 · 533 阅读 · 0 评论 -
《Python数据挖掘入门与实践》—— 学习笔记(二)
scikit-learn库,实现了一系列数据挖掘算法,提供通用编程接口、标准化的测试和调参工具,便于用户尝试不同算法对其进行充分测试和查找最优参数值。 本节目标:讲解数据挖掘通用框架的搭建方法。 本节核心概念: 估计器(Estimator):用于分类、聚类和回归分析。 转换器(Transformer):用于数据预处理和数据转换。 流水线(Pipeline):组合数据挖掘流程,便于再...原创 2019-02-11 19:35:40 · 495 阅读 · 0 评论 -
《机器学习实战》学习笔记(5、Logistic回归)
回归:若有一些数据点,用一条直线对这些点进行拟合的过程。 训练分类器时的做法,寻找最佳拟合参数,使用最优化算法。 准备数据,要求数据类型为数值型;训练算法,寻找最佳的分类回归系数。使用算法,输入数据,转化为结构化数值,基于回归系数,对这些数值进行回归计算,判定分类。 基于Logistic回归和Sigmoid函数的分类: 计算代价不高,但容易欠拟合,分类精度不高。 Sigmoid函数,看起...原创 2019-07-15 21:58:23 · 222 阅读 · 0 评论 -
《机器学习实战》学习笔记(4、朴素贝叶斯)
朴素:因为整个形式化过程,只做最原始、最简单的假设。 可利用Python的文本处理能力,将文档切分成词向量,然后利用词向量对文档进行分类。 优点:数据少有效,可处理多类别。 缺点:只适合,标称型数据。 核心思想:选择具有最高概率的决策。 使用朴素贝叶斯进行文档分类: 在文档分类中,整个文档是实例,而电子邮件中的某些元素则构成特征。 准备数据:可使用数值型或布尔型数据;分析数据:使用直...原创 2019-07-11 20:37:40 · 351 阅读 · 0 评论 -
《机器学习实战》学习笔记(3、决策树)
k-近邻算法,可以完成很多分类任务。但最大的缺点就是,无法给出数据的内在含义。 决策树的主要优势在于,数据形式非常容易理解。 决策树的一个重要任务,使用不熟悉的数据集合,并从中提取出一系列规则,在这些机器根据,数据集创建规则时,就是机器学习的过程。 优点:计算复杂度低,输出结果易于理解,对中间值的缺失不敏感,可处理不相关特征数据。 缺点:可能会产生过度匹配问题。 适用于,数值型和标称型。...原创 2019-07-10 20:14:20 · 302 阅读 · 0 评论 -
《机器学习实战》学习笔记(2、k-近邻算法)
该算法采用:测量不同特征值之间的距离方法进行分类 优点:精度高、对异常值不敏感、无数据输入假定。 缺点:计算复杂度和空间复杂度都高。 工作原理: 存在样本训练集和对应的标签。输入没有标签的新数据后,将新数据的每个特征与,样本数据的对应特征进行比较,然后提取样本集中,特征最近邻的分类标签。一般选样本集中,前k个最相似的数据。 k-近邻算法的一般流程: 收集数据、准备数据(距离计算,最好是...原创 2019-07-03 23:50:18 · 298 阅读 · 0 评论 -
《生成对抗网络入门指南》学习笔记(一)
人工智能元年:2017-AlphaGo 击败了柯洁。 图灵测试:如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。 打造人工大脑,需要回答的三个问题: 1)大脑如何运转——正在探索 2)大脑的运行机制可否,拆分成差异性极低的可衡量单位——神经学家解答是,神经元 3)是否有,其它人工产物可等价体现,这一单元粒度的价值或功能——信息学家解答是,可...原创 2019-05-05 18:43:39 · 1017 阅读 · 0 评论 -
《生成对抗网络入门指南》学习笔记(五)
GAN的优化问题: 训练GAN最大的问题:训练的不稳定性。 理论上,应优先训练好判别器,但实际上,判别器训练地越好,生成器反而越难优化。 真实数据的分布,通常是一个低维度流形。 所谓流形,是指数据虽然分布在高维度空间里,但实际上数据并不具备高维度特性,而是存在于一个嵌入在高维度的低维度空间里。 生成器要做的事情是,把一个低维度的空间Z映射到与真实数据相同的高维度空间上。 我们希望...原创 2019-04-24 22:14:29 · 689 阅读 · 0 评论 -
六、TensorFlow实现Google Inception Net
简介:Google Inception Net首次出现在ILSVRC 2014的比赛中,并获得第一名。 特点: 1、控制了计算量和参数量的同时,获得了非常好的分类性能,有22层深。 2、计算量只有15亿次浮点运算,同时只有500万的参数量。 3、去除了最后的全连接层,用全局平均池化层(即将图片尺寸变为1x1)来取代它,防止过拟合。 4、精心设计的Inception Module提高了参数...转载 2019-01-30 18:27:13 · 308 阅读 · 0 评论 -
六、TensorFlow实现AlexNet
简介:Hinton的学生Alex Krizhevsky提出了深度卷积神经网络模型AlexNet,它可算是LeNet的一种更深更宽的版本。 包含的技术点: 1、使用了ReLU作为CNN的激活函数。解决了Sigmoid在网络较深时的梯度弥散问题。 2、使用Dropout随机忽略一部分神经元,以避免模型过拟合。在最后几个全连接层使用了Dropout。 3、使用重叠的最大池化,避免平均池化的模糊化...转载 2019-01-23 03:24:24 · 216 阅读 · 0 评论 -
四、TensorFlow实现自编码器及多层感知机
多层感知机(多层神经网络)简介 Softmax Regression线性模型,简单易用,但是拟合能力不强。 隐含层:指除输入、输出层外,中间的那些层。 隐含层越多,越容易拟合复杂函数,且隐含节点数目越少。 深度学习的特点之一: 层数越深,概念越抽象,需要背诵的知识点就越少。 缺点,容易过拟合、参数难以调试、梯度弥散。 过拟合:模型预测准确率在训练集上升高,但在测试集上反而下降了。解决...转载 2019-01-15 00:32:11 · 433 阅读 · 0 评论 -
六、TensorFlow实现VGGNet
VGGNet是牛津大学计算机视觉组和Google DeepMind一起研发的深度卷积神经网络。 特点:1、反复堆叠3x3的小型卷积核和2x2的最大池化层。 2、拥有16~19层深的卷积神经网络。 3、拓展性强,迁移到其他图片数据上的泛化性好。 4、常被用来提取图像特征。 5、模型参数已开源,可在图像分类任务上进行再训练。 网络介绍: VGGNet拥有5段卷积,每段内有2~3个卷...转载 2019-01-18 03:58:43 · 248 阅读 · 0 评论