神经网络
文章平均质量分 73
亲亲Friends
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Pytorch查看,输出,打印模型各个网络层的名字和参数
很简单,以下代码即可:for name, param in mymodel.named_parameters(): print(name) print(param.data) print("requires_grad:", param.requires_grad) print("-----------------------------------")输出示例:clientA.0.weighttensor([[ 1.2868, 1.2431, 2.0032,原创 2021-10-27 17:02:40 · 10729 阅读 · 0 评论 -
Softmax求导
softmax的方程为:p=softmax(z) where pi=ezi∑j=1kezjfor i=1,⋯ ,k.\boldsymbol{p}=\text{softmax}(\boldsymbol{z})\, \text{where}\, p_i=\frac{e^{z_i}}{\sum^k_{j=1}e^{z_j}} \text{for}\, i=1,\cdots,k .p=softmax(z)wherepi=∑j=1kezjezifori=1,⋯,k.上式中p\boldsymbol{原创 2021-04-22 17:49:35 · 935 阅读 · 0 评论 -
PyTorch如何保存模型和读取模型
方案1 (推荐方案)保存模型torch.save(the_model.state_dict(), PATH)加载模型the_model = TheModelClass(*args, **kwargs) # 定义模型the_model.load_state_dict(torch.load(PATH)) # 读取参数注:本方案只保留和读取模型参数。方案2保存模型torch.save(the_model, PATH)加载模型the_model = torch.load(P原创 2020-08-26 17:19:27 · 3730 阅读 · 1 评论 -
Sigmoid函数(logsig)求导
通常情况下,我们所说的Sigmoid函数定义如下:σ(x)=11+e−x=exex+1.\sigma(x)=\frac{1}{1+e^{-x}}=\frac{e^x}{e^x+1}.σ(x)=1+e−x1=ex+1ex.它的形状如下:导数如下:dσ(x)dx=σ(x)⋅(1−σ(x)).\frac{d\sigma(x)}{dx}=\sigma(x)\cdot (1-\sigma(x)).dxdσ(x)=σ(x)⋅(1−σ(x)).本篇博文讲σ(x)\sigma(x)σ(x)导数的推原创 2020-05-15 22:33:17 · 12094 阅读 · 0 评论 -
从零开始手工实现卷积神经网络CNN以及img2col和col2img的实现方法
本文主要实现卷积神经网络(Convolutional Neural Network, CNN)中卷积操作的forward和backward函数。CNN主要包括卷积(Convolution),池化(pooling),全连接(Fully Connected)操作。相信点进来的同学对这些操作的细节已经很熟悉了,不熟悉的同学可以参考这一篇博文(本人看过讲CNN最简单易懂、最好的博文,没有之一):An In...原创 2020-03-31 18:08:35 · 8506 阅读 · 4 评论
分享