- 博客(12)
- 收藏
- 关注
原创 十、卷积神经网络
十、卷积神经网络内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习。1.全连接网络的问题问题就是全连接网络的参数量太过庞大,超过了当时计算机的内存容量,无法存储全部的参数。局部相关性:基于距离的重要性分布假设特性,它只关注和自己距离较近的部分节点,而忽略距离较远的节点。从局部相关性引出了权值共享的概念,即对于每个输出节点
2021-08-26 00:53:01
805
原创 九、过拟合
九、过拟合内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习1.模型的容量通俗地讲,模型的容量或表达能力,是指模型拟合复杂函数的能力。2.过拟合与欠拟合过拟合(Overfitting):当模型的容量过大时,网络模型除了学习到训练集数据的模态之外,还把额外的观测误差也学习进来,导致学习的模型在训练集上面表现较好,但是在未见
2021-08-23 22:29:38
236
原创 八、Keras 高层接口
八、Keras 高层接口内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习Keras 是一个主要由 Python 语言开发的开源神经网络计算库,最初由 François Chollet编写,它被设计为高度模块化和易扩展的高层神经网络接口,使得用户可以不需要过多的专业知识就可以简洁、快速地完成模型的搭建与训练。1.常见功能模块
2021-08-23 15:56:03
265
原创 七、反向传播算法
七、反向传播算法内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习。1.激活函数导数1.1Sigmoid 函数导数import numpy as np # 导入 numpy 库def sigmoid(x): # 实现 sigmoid 函数 return 1 / (1 + np.exp(-x))def derivat
2021-08-22 22:33:53
220
原创 六、神经网络
六、神经网络内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习1.感知机全连接层张量方式实现# 创建 W,b 张量x = tf.random.normal([2,784])w1 = tf.Variable(tf.random.truncated_normal([784, 256], stddev=0.1))b1 = t
2021-08-21 23:05:11
255
原创 五、TensorFlow 进阶
五、TensorFlow 进阶内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习1.合并与分割张量的合并可以使用拼接(Concatenate)和堆叠(Stack)操作实现,拼接操作并不会产生新的维度,仅在现有的维度上合并,而堆叠会创建新维度。选择使用拼接还是堆叠操作来合并张量,取决于具体的场景是否需要创建新维度。拼接tf.c
2021-08-20 18:21:53
170
原创 四、TensorFlow基础
四、TensorFlow基础内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习1.数据类型数值类型的张量是 TensorFlow 的主要数据载体,根据维度数来区分,可分为:标量(Scalar),向量(Vector),矩阵(Matrix),张量(Tensor)# tensor和Numpy相互转换import tensorfl
2021-08-20 00:19:44
136
原创 三、分类问题
三、分类问题内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习。1.加载minist数据集import osimport tensorflow as tf # 导入 TF 库from tensorflow import keras # 导入 TF 子库 kerasfrom tensorflow.keras import
2021-08-19 00:18:46
418
原创 二、回归问题
二、回归问题内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习。1. 数据生成import numpy as npimport pandas as pd# y = wx + bdata = []X = []Y = []for i in range(100): x = np.random.uniform(3
2021-08-17 22:06:34
336
原创 一、人工智能基础
一、人工智能基础内容参考来自https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book开源书籍《TensorFlow2深度学习》,这只是我做的简单的学习笔记,方便以后复习。1.人工智能的三起三落第一次兴盛期:1958 年,美国心理学家 Frank Rosenblatt 提出了第一个可以自动学习权重的神经元模型,一般认为 1943 年~1969 年为人工智能发展的第一次兴盛期。第一次寒冬:1969 年,美国科学家 Marvin
2021-08-17 10:12:49
1686
原创 循环神经网络PyTorch版
循环神经网络(RNN)申明:本书的理论和代码来自于开源书籍,TensorFlow深度学习地址:https://github.com/jiajunhua/dragen1860-Deep-Learning-with-TensorFlow-book1. Pytorch的RNN简单实现2.1. 单层RNNCell[s,b,n], s为句子长度,b为句子数量,n为词向量长度,h为状态长度import torchfrom torch import nnfrom torch import
2021-08-08 23:17:33
411
原创 循环神经网络_Tensorflow2实现
循环神经网络(RNN)申明:本书的理论和代码来自于开源书籍,TensorFlow深度学习地址:https://github.com/jiajunhua/dragen1860-Deep-Learning-with-TensorFlow-book1. TensorFlow2的RNN简单实现在 TensorFlow 中,RNN 表示通用意义上的循环神经网络,对于我们目前介绍的基础循环神经网络,它一般叫做 SimpleRNN。SimpleRNN 与 SimpleRNNCell 的区别在于,带 Cell 的
2021-08-07 15:18:48
658
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人