深度学习:从单神经元到前馈神经网络
1. TensorFlow实现单神经元逻辑回归
在TensorFlow中实现单神经元逻辑回归并不困难,其过程与线性回归有很多相似之处。
首先,我们需要定义占位符和变量:
import tensorflow as tf
import numpy as np
# 重置默认图
tf.reset_default_graph()
# 定义占位符
X = tf.placeholder(tf.float32, [n_dim, None])
Y = tf.placeholder(tf.float32, [1, None])
learning_rate = tf.placeholder(tf.float32, shape=())
# 定义变量
W = tf.Variable(tf.zeros([1, n_dim]))
b = tf.Variable(tf.zeros(1))
# 初始化全局变量
init = tf.global_variables_initializer()
与线性回归模型不同的是,我们需要定义不同的代价函数和神经元输出(使用sigmoid函数):
# 神经元输出
y_ = tf.sigmoid(tf.matmul(W,X)+b)
# 代价函数
cost = - tf.reduce_mean(Y * tf.log(y_)+(1-Y) * tf.log(1-y_))
# 训练步骤
training_step = tf.train.GradientDescentOpti
超级会员免费看
订阅专栏 解锁全文
9万+

被折叠的 条评论
为什么被折叠?



