
python
文章平均质量分 70
菜鸟程序猿的滴滴日常
关注:机器学习,数据挖掘,深度学习,自然语言处理。
展开
-
python3.5及numpy库的安装
在Windows上安装Python:首先,根据你的Windows版本(64位还是32位)从Python的官方网站下载Python 3.5对应的64位安装程序或32位安装程序,然后,运行下载的EXE安装包。链接地址:https://www.python.org/downloads/release/python-352/ 下载后,exe文件可以直接安装。特别要注意勾上Add Python 3.5 to原创 2017-07-28 10:53:06 · 2588 阅读 · 0 评论 -
python中一些函数使用(tile,排序,搜索,计数)
knn(k-近邻)算法的过程中用到了tile函数,记录下来此函数的用法:函数原型:numpy.tile(A,reps) #简单理解是此函数将A进行重复输出 函数格式tile(A,reps) A和reps都是array_like A的类型众多,几乎所有类型都可以:array, list, tuple, dict, matrix以及基本数据类型int, string, float以及bool类原创 2017-07-28 11:18:48 · 941 阅读 · 0 评论 -
机器学习实战第五章——Logistic回归
**第五章 Logistic回归(机器学习实战)**Logistic回归的一般过程: (1) 收集数据:采用任意方法收集数据。 (2) 准备数据:由于需要进行距离计算,因此要求数据类型为数值型。另外,结构化数据 格式则最佳。 (3) 分析数据:采用任意方法对数据进行分析。原创 2017-07-28 11:32:25 · 447 阅读 · 0 评论 -
机器学习实战——kNN算法
1.kNN算法的原理与基本实现k近邻法(k-nearest neighor, k-NN),是一种基本的分类和回归方法。这里只讨论分类问题中的k近邻。 k近邻法的输入为实例的特征向量,对应于特征空间的点;输出为实例的类别,可以取多类。 k近邻法假设给定一个训练数据集,其中的实例类别已定,分类时,对新的实例,根据其k个最近邻的训练实例的类别,通过多数表决的方式进行预测。 因此k近邻法不具有显式的学原创 2017-11-03 21:36:15 · 452 阅读 · 0 评论 -
机器学习实战——决策树
本文记录的是《机器学习实战》和《统计学习方法》中决策树的原理和实现。1、决策树定义:分类决策树模型是一种描述对实例进行分类的树形结构。决策树由节点(node)和有向边(directed edge)组成。节点有两种类型:内部结点和叶结点,内部结点表示一个特征或者属性,叶结点表示一个类。 用决策树进行分类,从根结点开始,对实例的某一特征进行测试,根据测试结构,将实例分配到其子结点;这时,每一个子结点对原创 2017-11-17 17:33:35 · 1100 阅读 · 1 评论 -
generator输出杨辉三角(python)
最近在学廖雪峰老师的python教程,做下练习方便查询: 杨辉三角定义如下: 1 / \ 1 1 / \ / \ 1 2 1 / \ / \ / \1 3 3 1把每一行看做一个list,试写一个generator,不断输出下一行的list:# 期待输出:# [1]# [1, 1]# [1, 2, 1]#...原创 2018-06-06 22:12:09 · 1103 阅读 · 0 评论 -
map,reduce函数用法(Python)
Python内建了map()和reduce()函数map()函数接收两个参数,一个是函数,一个是Iterable,map将传入的函数依次作用到序列的每个元素,并把结果作为新的Iterator返回。def f(x): return x * xr = map(f, [1, 2, 3, 4, 5, 6, 7, 8, 9])r[1, 4, 9, 16, 25, 36, 49, ...原创 2018-06-10 12:16:57 · 442 阅读 · 0 评论