
Tensorflow
文章平均质量分 55
ldinvicible
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
NXP mx8平台tensorflow-lite build error
NXP提供的方案 Compiling L5.4.3_1.0.0 BSP On Ubuntu 180.4 LTS - NXP Community 1、使用bitbake编译tensorflow-lite bitbake tensorflow-lite -c do_configure -v -f 出现如下错误,此时可以看到下载错误的软件包 FAILED: ruy-populate-prefix/src/ruy-populate-stamp/ruy-populate-download 具体路径为...原创 2021-11-25 11:08:50 · 1681 阅读 · 0 评论 -
lesson28-29f复现已有的卷积神经网络vgg16图像识别
https://www.bilibili.com/video/av22530538/?p=28原创 2018-11-25 09:53:03 · 3544 阅读 · 0 评论 -
lesson26-27卷积神经网络,lenet5代码讲解
https://www.bilibili.com/video/av22530538/?p=27 ##mnist_lenet5_forward.py #encoding:utf-8 import tensorflow as tf IMAGE_SIZE = 28 NUM_CHANNELS = 1 CONV1_SIZE = 5 CONV1_KERNEL_NUM = 32 CONV2_SIZE...原创 2018-10-14 15:52:27 · 919 阅读 · 0 评论 -
lession25 制作数据集
mnist_test.py #encoding:utf-8 #####lesson25 输入手写数字图片输出识别结果 import tensorflow as tf #MNIST数据集输出识别准确率 #MNIST数据集: #提供6w张28*28像素点的0-9手写数字图片和标签,用于训练 #提供1w张28*28像素点的0-9手写数字图片和标签,用于测试 #每张图片的784个像素点...原创 2018-10-14 09:30:50 · 189 阅读 · 0 评论 -
lesson22-24 MNIST数据集,模块化搭建神经网络八股,手写数字识别准确率输出
https://www.bilibili.com/video/av25541757/?p=11 import tensorflow as tf #MNIST数据集输出识别准确率 #MNIST数据集: #提供6w张28*28像素点的0-9手写数字图片和标签,用于训练 #提供1w张28*28像素点的0-9手写数字图片和标签,用于测试 #每张图片的784个像素点(28*28=784)组成长...原创 2018-10-07 14:48:51 · 261 阅读 · 0 评论 -
lesson19 正则化
https://www.bilibili.com/video/av22530538/?p=19 #coding:uft-8 #lesson19 正则化 #正则化缓解过拟合 #正则化在损失函数中引入模型复杂度指标,利用给W加全值,强化了训练数据在噪声(一般不正则化b) #loss = loss(y与y_)+REGULARIZER*loss(w) # loss(y与y_)--->模型中所有参...原创 2018-09-24 13:45:50 · 1313 阅读 · 0 评论 -
lesson20 神经网络搭建八股
https://www.bilibili.com/video/av22530538/?p=20 #lesson20 神经网络搭建八股 #搭建模块化的神经网络八股: #前向传播就是搭建网络,设计网络结构(forward.py) #def forward(x, regularizer): # w= # b= # y= # return y #def get_weigh...原创 2018-09-24 11:52:09 · 304 阅读 · 0 评论 -
lesson14 前向传播
https://www.bilibili.com/video/av22530538/?p=14 #前向传播 #参数:即xn ---wn --->y --->线上的权重W,用变量表示,随机给初值。 #w=tf.Variable(tf.random_normal([2,3],stddev=2,mean=0,seed=1)) # 正态分布 产生...原创 2018-09-23 23:31:39 · 161 阅读 · 0 评论 -
lesson15 反向传播
https://www.bilibili.com/video/av22530538/?p=15 #反向传播===》训练模型参数,在所有参数上用梯度下降, #使NN模型在训练数据上的损失函数最小。 #损失函数(loss):预测值y)与已知答案(y_)的差距: #均方误差MSE:MES(y_,y)=(y-y_)^2求和/n #loss = tf.reduce_mean(tf.square(y_-y)...原创 2018-09-23 22:52:34 · 289 阅读 · 0 评论 -
lesson16 损失函数
https://www.bilibili.com/video/av22530538/?p=16 #lesson16 损失函数 lesson16 损失函数 #1943年McCulloch Pittls神经元模型 #x(n)-------->f ---->F(x(n)w(n)+b) # 激活函数 偏置项bias #激活函数acti...原创 2018-09-23 21:51:26 · 233 阅读 · 0 评论 -
lesson18 滑动平均值
https://www.bilibili.com/video/av22530538/?p=18 #lesson18 滑动平均值 # #滑动平均(影子值):记录了每个参数一段时间内过往值的平均,增加了模型的泛化性。 #针对所有参数:w和b(像是给参数加了影子,参数变化,影子缓慢追随。) #影子=衰减率*影子 +(1-衰减率)*参数 影子初值=参数初值 #衰减率 = min「M...原创 2018-09-23 20:58:28 · 572 阅读 · 0 评论 -
lesson17 学习率
https://www.bilibili.com/video/av22530538/?p=17 #lesson17 学习率 #学习率learing_rate:每次参数更新的幅度 #wn+1 = wn - learning_rate德尔塔 #更新后的参数 当前参数 学习率 损失函数的梯度(导数) #eg:损失函数loss = ...原创 2018-09-23 21:25:14 · 320 阅读 · 0 评论 -
lesson13 张量、计算图、会话
https://www.bilibili.com/video/av22530538/?p=13 #lesson13 张量、计算图,会话 #搭建第一个神经网络,总结搭建八股 #基于Tensorflow的NN:用张量表示数据,用计算图搭建神经网络, #用会话执行计算图,优化线上的权重(参数),得到模型。 # #张量:多维数组(列表) 阶:张量的维数 #维数 阶 名字...原创 2018-09-23 23:55:01 · 207 阅读 · 0 评论