
斯坦福计算机视觉
用技术仰望星空
怕什么真理无穷,进一寸有进一寸的欢喜!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
杂谈
Loss function选择问题 分类问题: 交叉熵损失、softmax 回归问题: L1、L2(欧几里得)损失 降维方法: t-SNE t-分布邻域嵌入原创 2019-12-02 16:26:02 · 130 阅读 · 0 评论 -
upsampling
cs231n 分割一课中 unsampling的几种方法原创 2019-12-02 11:48:32 · 292 阅读 · 0 评论 -
rnn
一层rnn 多层rnn,一般使用的rnn不会太深 对于长时间序列rnn,容易出现梯度消失和梯度爆炸现象 于是改变rnn结构,出现LSTM 仅使用numpy实现时间截断反向传播rnn https://gist.github.com/karpathy/d4dee566867f8291f086 """ Minimal character-level Vanilla RNN model. Wri...原创 2019-12-02 11:07:12 · 213 阅读 · 0 评论 -
迁移学习
原创 2019-11-30 11:35:27 · 118 阅读 · 0 评论