- 博客(14)
- 资源 (1)
- 收藏
- 关注
翻译 readme
@@ -1,2 +1,93 @@# Caffe-Data-AugmentationImage data augmentation util for Caffe# IntroductionData augmentation is the best trick when you are training a deep network. the project imp
2016-07-22 12:31:16
360
翻译 欢迎使用优快云-markdown编辑器
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I 引用 Ctrl
2016-07-22 12:14:10
359
原创 caffe softmax 层形状
疑问: softmax 层的实现时, bottom Blob 和 top Blob 的形状 是相同的, 那么 如何控制 softmax 的类别呢推测: 通常在 softmax 前层会有 一个 全连接层, 会不会 这个全连接的输出 的尺寸中 指明了, 分类的个数, 查看googLeNet 的,train.prototxt,发现果然如此。同时发现,caffe 实现的 commo
2016-06-17 17:43:14
741
转载 caffe 中的工具函数
原文链接: http://blog.youkuaiyun.com/seven_first/article/details/47398613目录主要函数caffe_cpu_gemm 函数caffe_cpu_gemv 函数caffe_axpy 函数caffe_set 函数caffe_add_scalar 函数caffe_copy 函数caffe_scal 函数caffeine_cu
2016-06-17 16:59:35
536
翻译 caffe SoftmaxWithLoss 层
loss 函数: 深度 学习 的 目标, 通过调整 w,b 参数, 得到一个 更小的 losscaffe 中的 loss 在Forward阶段产生 在SoftmaxWithLoss 函数中, top blob 是一个 常数(shape 1*1*1*1), 通过 计算 一个mini-batch上的 平均loss得到(每个loss 通过predict 和实
2016-06-17 16:29:46
1208
翻译 caffe 的权值更新
Solver 优化model的步骤: 1调用 forward 产生 输出和loss, 2调用backward 生成模型的梯度, 3 通过梯度 计算出 weight 增量 英文连接:http://caffe.berkeleyvision.org/tutorial/forward_
2016-06-17 16:05:53
1169
原创 caffe 结构之Blob
想解决的问题 1 blob 里边有 data 和 diff 两个模块, 想知道里边 存的是什么东西, 是 带权输入, 还是层输出, 还有biashttp://imbinwang.github.io/blog/inside-caffe-code-blob
2016-06-17 12:09:58
335
原创 ffmpeg 错误 解决方法 记录
1 ffmpeg code_env.c:404: computeBits: Assertion `0, failed. libaacplus 的错误,具体原因不详, 解决方法 : 增大 libaacplus 的码率 32k -> 64k 就能通过了
2016-06-17 11:06:04
5425
1
原创 caffe 源码细节
1 前向传播 时候, 会见到 bottom[0] -> bottom[1]的写法 这个意思是说 当前层会有 两个Blob输入, 例如 softmax层 前边 会有特征Blob,还有label-Blob
2016-06-16 18:01:16
396
原创 深度学习 网络结构 可视化
今天发现一个 可以可视化深度学习 网络结构的 在线工具, http://ethereon.github.io/netscope/#/editor输入是 caffe 的deploy.prototxt 。1 粘进去2 按 Shitf+Enter 就开始画图了,速度很快。
2016-06-15 10:47:15
2219
原创 python 内建函数
1 Zip 把相同 (似)结构的列表 “压缩” 成一个列表 a = [A1, A2, A3, ..., An] b = [B1, B2, B3, ..., Bn] print zip(a, b) 输出为 [(A1, B1), (A2, B2) , (A3, B3), ..., (An, Bn)] 结论 : zip 仅仅按照 列表第
2016-06-14 14:26:50
266
转载 康威法则
【文章出处】:http://blog.vsharing.com/agiledo/A1013278.htmlMelvin Conway于20世纪60年代后期确定的Conway法则告诉我们,任意一个软件都反映出制造它的团队的组织结构,这是因为人们会以反映他们组织形式的方式工作。 换句话说,分散的团队可能用分散的架构生成系统。项目团队的组织结构中的优点和弱点都将不可避免地反映在他们生成的结果系统
2016-06-14 11:47:49
1325
原创 caffe 使用常见错误
1 Check failed: status == CUDNN_STATUS_SUCCESS (4 vs. 0) CUDNN_STATUS_INTERNAL_ERROR GPU 被跑满, 关掉其他app,就可以了
2016-06-12 12:12:19
10243
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人