
AI
文章平均质量分 55
wondervictor
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Install Caffe in ubuntu 16.04
Overview: - Prerequisites - Compilation - Hardware Prerequisites General dependencies sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev p原创 2018-01-08 13:22:06 · 291 阅读 · 0 评论 -
《CUDA By Example》【Chapter 03】CUDA C简介
3.2 第一个CUDA程序 simple_kernel.cu #include "../common/book.h" __global__ void kernel( void ) { } int main( void ) { kernel<<<1,1>&amp原创 2018-06-04 17:44:17 · 302 阅读 · 0 评论 -
《CUDA By Example》【Chapter 04】CUDA C 并行编程
GPU计算的应用前景在很大程度上取决于能否从很多问题中发掘出大规模并行性。 add_loop_cpu.cu #include "../common/book.h" #define N 10 void add( int *a, int *b, int *c ) { int tid = 0; // this is CPU zero, so we start at ze...原创 2018-06-04 18:47:15 · 252 阅读 · 0 评论 -
《CUDA By Example》【Chapter 05】线程协作 ?
概述 本章介绍代码在各个并行副本之间的通信和协作。 1,了解不同线程之间的通信机制; 2,了解并行执行线程的同步机制; 5.2 并行线程块的分解 add<<<N,1>>>( dev_a, dev_b, dev_c); //第一个参数为想要启动的线程块数量; //第二个参数为CUDA运行时在每个线程块中创建的线程数量; //共创建了N个线程块,N*1...原创 2018-06-05 18:52:45 · 257 阅读 · 0 评论 -
《CUDA By Example》【Chapter 06】常量内存与事件 ?
6.1 本章目标 高级些的功能,通过GPU上特殊的内存区域来加速应用程序的执行。其中一种内存区域:常量内存(Constant Memory)。介绍一种增强CUDA C应用程序性能的方法,了解如何通过事件来测量应用程序的性能。 如何在CUDA C中使用常量内存 了解常量内存的性能性能 学习使用CUDA事件来测量应用程序的性能 6.2 常量内存 由于GPU有很多ALU, 所以计算能力往...原创 2018-06-06 15:44:53 · 266 阅读 · 0 评论 -
《CUDA By Example》【Chapter 07】纹理内存 ?
7.1 本章目标 纹理内存和常量内存一样,都是只读内存,用来减少带宽流量,提升性能。 1,了解纹理内存的特性 2,了解如何在CUDA C中使用一维纹理内存 3,了解如何在CUDA C中使用二维纹理内存 7.2 纹理内存简介(Texture Memory) 7.3 热传导模拟...原创 2018-06-06 17:14:03 · 301 阅读 · 0 评论 -
《CUDA By Example》【Chapter 08】图形互操作性?
8.1 本章目的 本书重点为通用计算。GPU的成功要归功于实时计算复杂的渲染任务。能否同一个应用程序中GPU既执行渲染计算,又执行通用计算? CUDA C支持通用计算与渲染模式之间的互操作,而且非常容易实现。CUDA C可以无缝的与OpenGL和DirectX这两种实时渲染API进行交互。 目标: 什么是图形互操作性 如何设置某个CUDA设备的图形互操作性 如何在CUDA ...原创 2018-06-06 18:05:38 · 341 阅读 · 0 评论 -
《CUDA By Example》【Chapter 09】原子性?
9.1 概述 了解不同NVIDIA GPU的计算功能集 了解原子操作以及为什么需要使用 了解如何在CUDA C核函数中执行带有原子操作的运算 9.2 计算功能集 不同架构的CPU有不同的功能和指令集(如MMX,SSE,SSE2),对于CUDA支持的GPU也一样。NVIDIA将GPU支持的各种功能统称为计算功能集(Compute Capability)。 9.2.1 NVIDIA...原创 2018-06-07 17:50:32 · 288 阅读 · 0 评论 -
《CUDA By Example》【Chapter 10】流?
10.1 概述 并行性分数据并行性和任务并行性。GPU是SIMD天生的数据并行,同时也能支持类似于CPU多线程应用程序中的任务并行性。 GPU任务并行性不像CPU上那样灵活,但仍然可以进一步提高GPU上的运行速度。本章,介绍CUDA流,以及如何通过流在GPU上同时执行多个任务。 了解如何分配也锁定(Page-Locked)类型的主机内存 了解CUDA流的概念 了解如何使用CUDA流...原创 2018-06-08 16:05:58 · 286 阅读 · 0 评论 -
GPU
GPU进阶之路 Training Video NVIDIA CUDA初级教程视频2014 周斌 NVDIA CUDA ZONE https://www.nvidia.cn/object/cuda_education_cn_old.html Book 《大规模并行处理器编程实践》 2010年9月 An Even Easier Introduction to CUDA ...原创 2018-05-14 17:43:20 · 243 阅读 · 0 评论 -
数学基础[1]_线性代数_特征向量和特征值
特征向量和特征值 定义 如果矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量,伸缩的比例就是特征值。 几何意义 特征向量: 经矩阵A变换后, 方向不变的向量 特征值: 变换后的向量伸缩的比例 物理意义 特征向量: 运动的方向 亮点: 线性不变量 特征值: 运动伸缩的幅度 亮点: 所有特征值形成了矩阵的频...原创 2018-04-25 14:50:04 · 322 阅读 · 0 评论 -
DL: Basic of C/C++(to be continued)
Virtual functionexplicit function首先, C++中的explicit关键字只能用于修饰只有一个参数的类构造函数, 它的作用是表明该构造函数是显示的, 而非隐式的, 跟它相对应的另一个关键字是implicit, 意思是隐藏的,类构造函数默认情况下即声明为implicit(隐式). http://www.cnblogs.com/ymy124/p/3632634.html原创 2018-03-30 13:00:29 · 216 阅读 · 0 评论 -
Caffe(to be continued)
学习深度学习的四个步骤 https://blog.youkuaiyun.com/Maan_liaa/article/details/79194098 吴恩达在公开课上的讲课笔记网站:http://www.holehouse.org/mlclass/index.html 精华 | 机器学习岗面试,这些是基础!(ML,DL,SL相关知识整理) https://blog.youkuaiyun.com/Mbx8X9u/art...原创 2018-03-26 18:01:30 · 180 阅读 · 0 评论 -
Tensorflow【1】参考资料链接
tensorflow 参考资料 [1]: http://www.tensorfly.cn “tensorflow 中文社区” [2]: http://wiki.jikexueyuan.com/project/tensorflow-zh/ “极客学院” [3]: https://tensorflow.google.cn/ “An open-source machine learni...原创 2018-04-09 16:56:11 · 227 阅读 · 0 评论 -
深度学习入门系列(Aliyun)
激活引入非线性,池化预防过拟合(深度学习入门系列之十二) 卷积神经网络的所有核心层 各个层各司其职,概括起来 - 卷积层: 从数据中提取有用的特征; - 激活层: 为网络中引入非线性,增强网络表征能力; - 池化层: 通过采样减少特征维度,并保持这些特征具有某种程度上的尺度变化不变性。 - 全连接层: 实施对象的分类预测。 深度学习入门系列(1-14) 一入侯门“深”似...转载 2018-03-28 18:51:10 · 1841 阅读 · 2 评论 -
斯坦福大学公开课 :机器学习课程(Andrew Ng)[1]
链接 斯坦福大学公开课 :机器学习课程(Andrew Ng) http://open.163.com/special/opencourse/machinelearning.html 课程列表 [第1集] 机器学习的动机与应用 [第2集] 监督学习应用.梯度下降 [第3集] 欠拟合与过拟合的概念 [第4集] 牛顿方法 [第5集] 生成学习算法 ...原创 2018-04-17 15:07:27 · 1899 阅读 · 0 评论 -
卷积的解释(加权叠加)
疑问 未解答疑问 为什么核函数需要reverse翻转,再进行运算? 参见cross-convolution,如果不翻转, f*g卷积和g*f卷积 函数会对称; 而如果翻转,如convolution, 则f*g卷积 等于 g*f卷积. 表现为卷积满足交换律. 所以,是否可以说设置翻转,是否为了使其满足交换律而已? 单位冲击响应 在时域上的卷积, 得到频域上的响应? 信号处理原理 核函数...原创 2018-04-12 14:47:30 · 5184 阅读 · 1 评论 -
《CUDA By Example》【Chapter 11】多GPU系统上的CUDA C?
11.1 概述 了解如何分配和使用零拷贝内存(zero-copy memory) 了解如何在同一个应用程序中使用多个GPU 了解如何分配和使用可移动的固定内存(Portable pinned Memory) 11.2 零拷贝主机内存 固定内存(页锁定内存)能确保不会交换出物理内存。我们通过调用cudaHostAlloc()来分配这种内存,并且传递参数cudaHostAllocDefa...原创 2018-06-08 17:44:05 · 554 阅读 · 0 评论