神经网络算法原理和实现(实战编码,手写实现)
实战编码,手写实现
猿说猿道
曾在华为工作7年,先后担任软件工程师、项目经理
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
人工智能神经网络:手写了一个RNN,预测序列,精准
1、RNN单向循环神经网络实现2、隐藏层激活使用的是tanh、输出层使用的激活函数是softmax3、代码纯手写import numpy as npfrom activator.softmax import SoftMaxfrom activator.tanh import Tanh''' @author: liuhaibing'''# 手写循环神经网络# 全连接层只用三层input-hidden-outputclass RNN(): def __in.原创 2020-08-26 16:06:17 · 1239 阅读 · 0 评论 -
人工智能神经网络:200行代码手写了一个全连接神经网络(NN),基于FP和BP算法,单条数据计算更新梯度,速度比较慢,计划改为批量计算,代码详细注释
1.算法原理就是FP和BP算法,采用的梯度下降更新梯度。2.算法的loss函数还是交叉熵函数,也是常用的分类loss函数。3.训练数据集是使用的mnist数据集,但是是处理好的,用csv文件保存的结构。4.目前没有写算法说明,回头再更吧,算法有详细的注释。import numpy as np# 基于交叉熵的loss函数计算和梯度class CrossEntropy(): # 正向计算 def forward(self, input, y): '''原创 2020-07-01 11:40:01 · 698 阅读 · 0 评论
分享