- 博客(3)
- 资源 (1)
- 收藏
- 关注
原创 AlexNet原文解读
图的左侧是一张图片,rgb 3通道,通过不断的卷积,池化(就是提取模式信息,然后就行池化从低级信息提炼高级信息),最后对两块gpu上的信息进行全连接的最后走出分类。作者是通过两块gpu训练,在gpu上运行同样的代码和结构(核不一样),但是在某一些部分会进行通信连接上一层的信息(比如,在gpu 0上128通道那里,变为192通道的位置会去连接gpu 1 的在128通道卷积得到的信息),按找李沐的说法,这个算是特别工程上的实现细节,就算不用运行在两个gpu上也没关系。因此,输出向量的所有元素的和为1。
2023-05-07 18:00:22
566
1
原创 MyTinySTL之iterator.h
#include <cstddef>#include "type_traits.h"namespace mystl{ //五种迭代器类型 struct input_iterator_tag {}; struct output_iterator_tag {}; struct forward_iterator_tag : public input_iterator_tag {}; struct bidirectional_iterator_tag : public forwar.
2021-05-24 21:36:40
262
原创 MyTinySTL之type_traits
根据GitHub上的https://github.com/Alinshans/MyTinySTL编写自己stl1.type_traits.h#ifndef MYTINY_TYPE_TRAITS_H_#define MYTINY_YYPE_TRAITS_H_//提取类型信息#include <type_traits>namespace mystl{ //helper struct template <class T,T v> struct m_interg
2021-05-24 21:16:12
390
八皇后实现
2019-04-15
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅