漫漫 TensorFlow 修仙路
文章平均质量分 93
余将董道而不豫兮
兴北摸鱼研究院 全日制在读研究生
研究方向:
· 工作的意义
· 摸鱼之奥义
· 摸鱼的方式
· 二者的相吸相斥
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
手搓神经网络——BP反向传播
这里只采用 ReLU、Sigmoid 作为神经网络的激活函数,MSE 作为损失函数下面列了这仨的计算公式与导数的计算公式。除了定义计算公式,也定义了其求导公式,因为链式法则,懂吧?😁 就是为了方便后面的求导(也就是误差反向传播)原创 2023-12-24 17:28:26 · 1655 阅读 · 0 评论
-
Grad-CAM:CNN看到了啥
Grad-CAM,全名为Gradient-weighted Class Activation Mapping,中文名叫梯度加权类激活映射。是一种用于理解卷积神经网络决策的可视化技术,简单来说,它可以帮助我们“看到”神经网络在做出决策时,到底关注了图像的哪些部分,也就是卷积层的注意力部分呗此项技术可以应用在图像分类,图像转文字,视觉问题回答等任何特定任务的网络Grad-CAM无疑是一把解锁神经网络黑箱的钥匙。通过它,可以更直观地理解模型的内部工作机制,从而优化模型、提高性能(这句是水文章)原创 2024-02-06 19:40:03 · 1343 阅读 · 1 评论 -
手搓神经网络——矩阵求导
本文是对于《手搓神经网络——BP反向传播》一文中高级的 BP 反向传播部分的详细论述。原创 2024-01-27 00:06:23 · 1384 阅读 · 0 评论 -
手搓神经网络——Fashion MNIST训练
相关文章:哼,就是整活儿😎😎😎。之前写了《手搓神经网络——BP反向传播》一文。此本便是基于前文的“实战”,基于之前手搓的神经网络框架,实现 Fashion MNIST 训练。毕竟实践出真知,在前篇中的验证仅验证了神经网络框架的自动求导正确与否…加载数据集使用 TensorFlow 加载 Fashion MNIST对训练数据集打乱,设置批大小定义激活函数、损失函数这个在《手搓神经网络——BP反向传播》中写过了,这里不多言构造框架关于此部分,笔者优化了框架结构,这样便于后期的神经网络模型构建原创 2023-12-26 21:13:47 · 602 阅读 · 0 评论 -
混淆矩阵——矩阵可视化
举个栗子🌰,我们要区分苹果🍎和凤梨🍐。我们。原创 2023-12-24 13:31:09 · 2336 阅读 · 3 评论 -
混淆矩阵——评估指标
承接上文,本文通过混淆矩阵获取几个常见的评估指标。使用sklearn、tensorflow和手搓混淆矩阵这3种方式进行指标的计算 🦆🦆🦆。原创 2023-12-28 13:46:03 · 1364 阅读 · 0 评论
分享