- 博客(7)
- 收藏
- 关注
原创 细胞神经网络Cellular Neural Networks
细胞神经网络理论Cellular Neural Networks: Theory——蔡少棠和Lin Yang于1988年10月发表于IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS的文章,配套还有一篇文章Cellular Neural Networks: Applications‘
2021-07-26 20:01:15
2630
原创 连装tensorflow3天.jpg
用Anaconda装,建议先打开Anaconda Prompt检查现有的环境一共有多少(conda info -e),我自己再装的时候是把已有的除了base以外的全部卸掉了再装的卸载方法:输入conda uninstall -n 你的环境名字 --all然后输入y即可安装两个版本的tensorflow_gpu和对应的驱动这是从官网上面拷下来的配置对应表,按照官网描述tensorflow2.x自带支持GPU版本,1.x需要在安装的时候选择GPU版本,默认装的是CPU版..
2021-07-19 09:33:59
314
原创 来点tensorflow
import tensorflow as tfmnist = tf.keras.datasets.mnist(x_train, y_train),(x_test, y_test) = mnist.load_data()x_train, x_test = x_train / 255.0, x_test / 255.0model = tf.keras.models.Sequential([ tf.keras.layers.Flatten(input_shape=(28, 28)), tf..
2021-07-17 11:56:52
99
原创 神经网络笔记
什么是神经网络?以房价为例,我们描出图中的这几个红点,如果用线性回归则会回归出这样一条直线,但是价格不能为负数,所以前面的全部归零(→ReLU函数:Rectified Linear Unit)房子的大小(x)→回归处理→房子的价格(y),中间的就是一个小的神经元。又因为影响房价的因素还有很多,分别对应不用的函数,所以组在一起就是一个神经网络(walkability→在附近走路的舒适程度)图中的每一个神经元都可以是ReLU的一部分,或者是其他的非线性函数递归神经网络(RNN)→适用
2021-07-03 21:08:16
224
原创 20210701 LeNet5
过去没有填充,每次处理都会减小图片的大小过去人们会用Sigmoid(=Logistic)/Tanh,而不会去用ReLu,而且因为过去的运算力不足,所以需要让上一层和这一层的通道数都一样,因此会多出很多放到现在来看不必要的细节原来的LeNet-5在池化了以后还做了非线性函数处理non-linearity(比如Sigmoid)AlexNet→和LeNet-5很像,但是参数多了很多(6000万个参数)→用了ReLu激活函数→每个层被拆到不同的GPU上面,然后相互连接,因为当时GPU的处
2021-07-01 16:45:37
110
原创 2021/06/29 CNN实例
Conv1→第一层的卷积层(后面的数字表示第几层)注意参数尽量使用前人文献里面用过的,可以避免自己试错的时间成本
2021-06-29 11:37:16
379
原创 Python学习笔记
卷积设输入图片大小为n*n,卷积核大小为f*f,周围填充p圈,则输出图片大小为(n+2p-f+1)*(n+2p-f+1)图像边缘检测将图片与如下卷积核kernal/过滤器filter进行卷积1 0 -1 1 0 -1 1 0 -1 也可以用下面的这些卷积核进行卷积:Sobel Filter 1 0 -1 2 0 -2 1 0 -1 填充padding...
2021-06-28 11:27:36
292
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人