TensorFlow学习笔记(1)及鸢尾花识别代码注释

人工智能的主流:连接主义。

人工智能的三个学派:

1、行为主义:基于控制论,由感知到控制。

2、符号主义:基于表达式,先描述表达式,再求解表达式,是一种用公式描述的人工智能。

3、连接主义:仿生学,神经网络的感性控制。

搭建一个完整的神经网络,往往需要以下几个步骤:

1、准备数据:特征和标签对(数据集)

2、搭建网络:确定神经网络的结构

3、优化参数:(利用反向传播)获取最佳参数

4、应用网络:保存训练模型,应用(前向传播)

神经网络的表达式:y=w*x+b     y表示期望,w表示权重,b表示偏置,在最初的设计中,w和b都是随机设置的。

损失函数:预测期望值与实际值的差距,根据损失函数去判断参数w、b优化的好坏,是否还需要继续优化。常见的是均方误差(MSE),目的就是找到使损失函数最小的w和b。

梯度:损失函数对各参数求偏导后的向量,梯度下降的方向即损失函数变小的方向,沿着梯度的下降方向寻找损失函数的最小值。

迭代函数:wt=wt-lr*(loss对w的偏导)    wt表示参数,lr表示迭代速率

Tensor:张量,多维数组

拥有的数据类型:int、float(32,64)、bool、string

创建张量tensor:tf.constant(张量内容,形状,dtype=数据类型)

张量内容如果是一个数值,那么在张量内部都会填充为该数值。

tf.constant([1 5], shape=(2,), dtype=int64)    表示是一个两行,第一行为1第二行为5的整型张量。

对于numpy格式的数据,要用tf.convert_to_tensor(a,dtype=)转变为tensor。

创建全为0的张量:tf.zeros(维度)

创建全为1的张量:tf.ones(维度)

创建全为指定值的张量:tf.fill(维度,指定值)

生成正态分布的随机数,默认均值为0,标准差为1   tf.random.normal(维度,mean=均值,stddev=标准差)

生成截断式正态分布的随机数   tf.random.truncated_normal(维度,mean=均值,stddev=标准差)

生成均匀分布随机数   tf.random.uniform(维度,minval=最小值,maxval=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值