人工智能的主流:连接主义。
人工智能的三个学派:
1、行为主义:基于控制论,由感知到控制。
2、符号主义:基于表达式,先描述表达式,再求解表达式,是一种用公式描述的人工智能。
3、连接主义:仿生学,神经网络的感性控制。
搭建一个完整的神经网络,往往需要以下几个步骤:
1、准备数据:特征和标签对(数据集)
2、搭建网络:确定神经网络的结构
3、优化参数:(利用反向传播)获取最佳参数
4、应用网络:保存训练模型,应用(前向传播)
神经网络的表达式:y=w*x+b y表示期望,w表示权重,b表示偏置,在最初的设计中,w和b都是随机设置的。
损失函数:预测期望值与实际值的差距,根据损失函数去判断参数w、b优化的好坏,是否还需要继续优化。常见的是均方误差(MSE),目的就是找到使损失函数最小的w和b。
梯度:损失函数对各参数求偏导后的向量,梯度下降的方向即损失函数变小的方向,沿着梯度的下降方向寻找损失函数的最小值。
迭代函数:wt=wt-lr*(loss对w的偏导) wt表示参数,lr表示迭代速率
Tensor:张量,多维数组
拥有的数据类型:int、float(32,64)、bool、string
创建张量tensor:tf.constant(张量内容,形状,dtype=数据类型)
张量内容如果是一个数值,那么在张量内部都会填充为该数值。
tf.constant([1 5], shape=(2,), dtype=int64) 表示是一个两行,第一行为1第二行为5的整型张量。
对于numpy格式的数据,要用tf.convert_to_tensor(a,dtype=)转变为tensor。
创建全为0的张量:tf.zeros(维度)
创建全为1的张量:tf.ones(维度)
创建全为指定值的张量:tf.fill(维度,指定值)
生成正态分布的随机数,默认均值为0,标准差为1 tf.random.normal(维度,mean=均值,stddev=标准差)
生成截断式正态分布的随机数 tf.random.truncated_normal(维度,mean=均值,stddev=标准差)
生成均匀分布随机数 tf.random.uniform(维度,minval=最小值,maxval=