- 博客(20)
- 收藏
- 关注
原创 字典的运用
概念 1.Python中的字典是python的一种数据结构,它的本质是key和value以及其对应关系的一种集合,一个key可以对应一个多个value。合理的使用字典能给我们编程带来很大的方便。 举个例子 列表[99,98,97,96] 字典{"a":99,"b":98,"c":97,"d":96} 字典的创建 dict(name="jack",age=20) 常用操作 键的判断 scores={"a":99,"b":98,"c":97,"d":96} print ("a" in scores) pri
2020-10-06 22:35:12
204
原创 列表
列表 概念:变量可以存储一个元素,列表是一个大容器,可以存储多个元素,程序可以方便的对这些数据进行整体操作。列表相当于其它语言的数组。 写一个代码 a=10 ## 变量存储的是一个对象的引用 lst=["hello","word","98"] print(id(lst)) print(type(lst)) print(lst) 列表创建 方法一;用[,]创建 如 lst=["hello","word","98"] 方法二;用内置函数list 如 lst2=list(["hello","word","9
2020-09-29 15:37:34
141
原创 流程控制语
流程控制语 1break语句 用于结束循环结构,通常与分支结构if一起使用 写一个循环 a=0 while a<3: pwd=input("请输入密码;") if pwd=="8888": print("密码正确") break else: print("密码不正确") 2continue语句 用于结束当前循环,进入下一次循环,通常与分支结构中的if一起使用 写一个循环 for item in range(1,51): if item&5!=
2020-09-29 13:38:36
139
原创 循环结构
while循环 1 语法结构 while 条件表达式: 条件执行体(循环体) while (表达式) { 语句; } 写一个循环 a=1 while a<10: print(a) a+=1 结果输出 while循环执行流程 1.四步循环法 初始化变量 条件判断 条件执行体() 写一个循环 计算0到4的累加和 sum=0 ## 初始化变量## a=0 ## 条件判断 ## while a<5: ## 循环体 ## sum+=a ## 改变变
2020-09-29 12:22:33
225
原创 range函数创建
range函数的三种创建 1.小括号中一个数 r=range(10)## 默认从0开始 print(r)## 默认步长为1 print(list(r)) 2。小括号里面两个数 r=range(1,10)## 指定1到10 print(list(r))## 步长为1 3.小括号里面三个数 r=range(1,10,2)## 指定1到10,步长为2 print(list(r)) ...
2020-09-27 11:54:13
331
1
原创 机械学习
k-近邻算法 KNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。 建立一个KNN.py文件对算法的可行性进行验证,如下: from numpy import * import operator ##给出训练数据以及对应的类别 def createDataSet(): group = array([[1.0,2.0],[1.2,0.1],[0.1,1.4],[0.3,3.5]]) labels = [
2020-09-27 10:47:19
436
原创 参数传递
python参数传递 1什么是参数传递 参数传递,是在程序运行过程中,实际参数就会将参数值传递给相应的形式参数,然后在函数中实现对数据处理和返回的过程,方法有按值传递参数,按地址传递参数和按数组传递参数。 2位置传递和名称传递 有两个形参a和b,反馈结果为a*b的值,令ab等于1.2,输出结果为2 def add(a,b): return a*b result=add(1,2) print(result) 结果输出 3可变参数的传递 用元组类型为案例 def add(a,*b): s=0
2020-09-23 12:03:31
468
原创 python概念理解
概念 python中有元组、列表、数据框、数组这四种可以存放多个数据元素的集合 一 元组 元组是一种静态的数据结构,无法修改,若要修改只能重新生成新的元组。元组元素的获取是通过索引值去获得的,也是可以层次嵌套的。 二 列表 列表的特性有索引,切片,重复,链接,成员操作符,迭代[for循环遍历],列表里嵌套列表 三 数据框 数据框是最常用的数据结构,用于存储二维表(即关系表)的数据,每一列存储的数据类型必须相同,不同数据列的数据类型可以相同,也可以不同,但是每列的行数(长度)必须相同。数据框的每列都有唯一的名
2020-09-21 22:44:31
110
原创 while循环
while 语句用于循环执行程序,即在某条件下,循环执行某段程序,以处理需要重复处理的相同任务。 while的执行顺序 while 循环的执行顺序非常简单,它的格式是: while (表达式) { 语句; } 当表达式为真,则执行下面的语句;语句执行完之后再判断表达式是否为真,如果为真,再次执行下面的语句;然后再判断表达式是否为真……就这样一直循环下去,直到表达式为假,跳出循环。这个就是 while 的执行顺序。 注意,初学者编程时,if、else、for、while、do 后面的执行语句
2020-09-16 22:01:05
1593
原创 2020-09-16
for循环+简单函数和自定义函数 for循环是编程语言中一种开界的循环语句,而循环语句 由循环体及循环的终止条件两部分组成,for循环其在各种编程语言中的实现与表达有所出入,但基本为以C语言和pascal语言代表的两种形式。 for循环:结构更加紧凑. 以个人今日收款为例,第一次收100,第二次收200,第三次收300. 操作代码 money=[100,200,300] for n in money: print(n) 这样可以清楚的看到数据n中包含的数,在循环中加入sum函数,用来计算今日收款
2020-09-16 20:18:09
103
原创 概念
1.形参 1.1概念 全称为"形式参数"是在定义函数名和函数体的时候使用的参数,目的是用来接收调用该函数时传递的参数。 1.2作用 形参的作用是实现主调函数与被调函数之间的联系,通常将函数所处理的数据,影响函数功能的因素或者函数处理的结果作为形参。没有形参的函数在形参表的位置应该写int main(void) 函数也可以有形参和返回值,其形参也称为命令行参数,由操作系统在启动程序时初始化,其返回值传递给操作系统。 2.实参 2.1概念 实参,actual parameters,全称为"实际参数"是在调用时传
2020-09-16 19:40:59
203
原创 交叉熵和正则化缓解过拟合
1交叉熵损失函数 概念 交叉熵损失函数; 表征两个概率分布间的距离 import tensorflow as tf loss_ce1 = tf.losses.categorical_crossentropy([1, 0], [0.6, 0.4]) loss_ce2 = tf.losses.categorical_crossentropy([1, 0], [0.8, 0.2]) print("loss_ce1:", loss_ce1) print("loss_ce2:", loss_ce2) # 交叉熵损
2020-09-13 22:30:24
2754
原创 损失函数
损失函数(loss) loss函数的作用就是描述模型的预测值与真实值之间的差距大小。我的理解是寻找一个标准来帮助训练机制随时优化参数,以便于找到网络的最高精度下的参数。这个标准不难理解,与我们日常生活中的很多事情一致,例如倒车入库,在你倒车的同时肯定会一边打方向盘一边看倒后镜一样(当然具备自动倒车入库功能的车除外),根据倒后镜中看到的停车线,随时调整以便能够准确入库,这个停车线就是标准。更通俗的来说,loss函数就是指导模型在训练过程中朝着收敛的方向前进。 二、常见的loss算法种类 1.MSE(均值平方差
2020-09-12 23:36:56
307
原创 激活函数
1激活函数 1.激活函数(activation function):我们知道在多层的神经网络中,上一层的神经元(neuron)信号,即线性单元wx+b算出的结果,要输入到下一层,但是这个信号在输入到下一层之前需要一次激活f = sigmoid(wx+b),或f = ReLU(wx+b)。我们需要选择一些信号在下一层的神经元激活。如何表示激活呢?就是当激活函数的输出结果是0,就代表抑制,是1,就代表激活。因为按照下一层的线性单元wx+b的计算来看,如果x接近于0,那么就会阻止x对应的权重w起作用,如果接近1,
2020-09-12 22:23:06
508
原创 复杂度,学习率
神经网络(NN)复杂度 在梳理CNN经典模型的过程中,我理解到其实经典模型演进中的很多创新点都与改善模型计算复杂度紧密相关, NN复杂度;多用NN层数和NN参数表示 空间复杂度; 层数=隐藏层层数数+1个输出层 时间复杂度: 乘加运算次数 学习率 指数衰减学习率 先用较大的学习率,快速得到较优解,然后逐步减小学习率,使模型在训练后期稳定 指数衰减学习率=初始学习率+学习率衰减率(当前轮数/多少轮衰减一次) 操作代码 import tensorflow as tf w = tf.Variable(tf.co
2020-09-11 15:50:57
564
原创 预备知识
预备知识 1,条件语句tf.where。tf.where(条件语句,真返回A,假返回b) a = tf.constant([1, 2, 3, 1, 1]) b = tf.constant([0, 1, 3, 4, 5]) c = tf.where(tf.greater(a, b), a, b) # 若a>b,返回a对应位置的元素,否则返回b对应位置的元素 print("c:", c) np.random.RandomState.rand(维度),返回0或1间的随机数。 import num
2020-09-09 22:30:36
155
原创 神经网络实现鸢尾花分类
神经网络实现鸢尾花分类 1准备数据 1数据集读入 2.数据集乱序 3.区分训练集和测试集 4.配对,每次读入一小撮 2搭建网络 定义神经网络中所有可训练参数 3参数优化 嵌套循环迭代,with结构更新参数,显示当前loss 4测试效果 计算当前参数向前传播后的准确率,显示当前acc acc/loss可视化 操作代码 1,导入数据 # 导入所需模块 import tensorflow as tf from sklearn import datasets from matplotlib import pypl
2020-09-08 12:31:09
1119
原创 tensorflow常用函数学习
2.tensorflow常用函数 1.with结构记录计算过程,gradient求出张量梯度 with.tf.gradienTape() as tape:若干个计算过程grad=tape.gradient(函数,对谁求导) with tf.GradientTape() as tape: x = tf.Variable(tf.constant(3.0)) y = tf.pow(x, 2) grad = tape.gradient(y, x) print(grad) 操作结果 2.enum
2020-09-07 14:36:34
271
原创 tensorflow常用函数
常用函数整理 1.强制tensor转换为该数据类型tf.cast(张量名,dtpye=数据类型)。计算张量维度上元素的最小tf.reduce_min(张量名),计算张量维度上元素的最大值tf.reduce_max(张量名)。 例如: x1=tf.constant([1.,2.,3.], dtype=tf.float64) print(x1) x2=tf.cast(x1,tf.int32) print(x2) print(tf.reduce_min(x2),tf.reduce_max(x2)) 运行结果
2020-08-25 10:48:15
178
原创 用鸢尾花数据集来学习,并进行tensor的创建
1.数据载入 这次我用神经网络给鸢尾花分类,用python自带的鸢尾花数据集来进行 1.1代码操作 import tensorflow as tf## 安装tensorflow w=tf.Variable(tf.constant(5,dtype=tf.float32))## 设定参数w初始值为5 lr=0.2 ## 设定学习率为0.2 epoch=40 设置好了初始参数后,进行下一步 for epoch in range(epoch): # for epoch 定义顶层循环,表示对数据集循环epoch
2020-08-24 12:16:16
335
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人