
深度 学习
Mask_AI
一个的深度学习小白的努力前进之路
展开
-
tensorflow2.0(二)----卷积神经网络(CNN)
使用Keras实现卷积神经网络class CNN(tf.keras.Model): def __init__(self): super().__init__() self.conv1 = tf.keras.layers.Conv2D( filters = 32, kernel_size=[5,5], padding = 'same', activation = tf.nn.relu) self.pool1 = tf.keras.layers.MaxPool2D(poo原创 2020-12-01 08:57:22 · 427 阅读 · 2 评论 -
tensorflow2.0(三)----循环神经网络(RNN)
class DataLoader(): def __init__(self): path = tf.keras.utils.get_file('nietzsche.txt',origin='http://s3.amazonaws.com/text-data') with open(path,encoding='utf-8') as f: self.raw_text = f.read().lower() self.chars = sorted(list(set(self.raw_text)原创 2020-12-01 08:56:46 · 474 阅读 · 0 评论 -
tensorflow2.0(一)----多层感知机(MLP)
在TensorFlow 1.X版本中, 调用 tf.enable_eager_execution() 函数启动Eager Execution模式。在TensorFlow 2.0版本中,Eager Execution模式成为默认模式,无需额外调用tf.enable_eager_execution() 函数(不过若要关闭Eager Execution,则需调用tf.compat.v1.disable_eager_execution() 函数)tensorflow使用tensor(张量)作为数据的基本单元。在概原创 2020-11-30 20:28:03 · 681 阅读 · 0 评论 -
深度学习总结(二)
深度学习总结(二)原创 2019-07-30 14:54:57 · 552 阅读 · 0 评论 -
深度学习总结(一)
深度学习总结(一)1、经典优化算法(1)一阶迭代法(又称梯度下降法):(2)二阶迭代法(牛顿法):一般在神经网络里面,L()函数就是代价函数。2、不同梯度下降法(1) 经典梯度下降法(2)随机梯度下降法随机梯度下降法可以解决经典梯度下降法数据量大,计算量大,耗时长的问题。但是对于SGD来说,局部最小还不是最可怕的,在陷入鞍点(鞍点的形状像是一个马 鞍,一个方向上两头翘,另...原创 2019-07-28 16:21:30 · 849 阅读 · 0 评论