并行计算
xx116213
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
并行计算之路<1>——Hello, CUDA.
you will say goodbye to girls if you are saying “hello world”. 第一个CUDA程序修改后的代码代码分析CUDA提供的demo代码代码分析第一个CUDA程序参考《GPGPU编程技术——从GLSL、CUDA到OpenCL》的4.3节第一个CUDA程序,因为版本的不同所以对原书的代码进行修改。修改后的代码#include <stdio原创 2016-02-14 17:28:10 · 1604 阅读 · 0 评论 -
并行计算之路<2>——CUDA与纹理映射
纹理存储器是GPU常用的优化方法。举个栗参考《GPGPU编程技术——从GLSL、CUDA到OpenCL》代码6-2(离散卷积程序)。因为CUDA版本的不同,所以本人对原书的代码进行修改,修改后的代码如下。#include "cuda_runtime.h"#include "device_launch_parameters.h"#include <iostream>using namespace s原创 2016-02-15 17:25:18 · 2860 阅读 · 1 评论 -
并行计算之路<4>——CUDA牵手OpenCV
官方的pdf文档中已经对CUDA怎么牵手OpenCV做了很好的说明。详情请下载文档1,文档2。我也是博采众家之长为己所用,总结下CUDA牵手OpenCV的方法。用IplImage包含两个文件,kernel.cu以及app.cpp。kernel.cu#ifndef _KERNEL_CU_#define _KERNEL_CU_#include<time.h>#include "cuda_runtime原创 2016-02-20 12:40:28 · 6456 阅读 · 2 评论 -
并行计算之路<3>——CUDA与CPP文件联姻
原内容来源于《GPGPU编程技术——从GLSL、CUDA到OpenCL》的7.1.3节。 有修改。目的之前都是单一的*.cu文件。一个较为复杂的工程,往往需要多个文件来实现,合理安排这些文件的结构会使得工程文件尽然有序。《GPGPU编程技术——从GLSL、CUDA到OpenCL》提供了三种方法来实现将CUDA C代码集成到C++中。,内核代理:将CUDA C程序集成在面向对象的CPP项目中。在CPP原创 2016-02-16 15:47:25 · 1800 阅读 · 0 评论 -
并行计算之路<5>——CUDA的硬件架构
如果你正在准备建立支持CUDA的新平台并在上面进行编程,建议你精读CUDA的硬件架构——《CUDA专家手册》Nicholas Wilt 著。CUDA入门很简单,上手不到三天,我就写些CUDA程序。但是都没有进行效率上的分析,也只是单单的窥视了GPU加速的魅力。要成为一个充分榨取GPU处理能力的并行计算工程师也绝非易事,至此不再单纯编写CUDA程序,重点放在优化上。 阅读《CUDA专家手册》第二章硬件原创 2016-02-23 12:11:05 · 8673 阅读 · 0 评论 -
并行计算之路<6>——CUDA的软件架构
先来一些我们都知道的——入门和gpu相关知识。Copy一部分放在这里。函数类型限定符,用来确定函数是在CPU还是在GPU上执行,以及这个函数是从CPU调用还是从GPU调用。__device__,__device__表示从GPU上调用,在GPU上执行;__global__,__global__表示在CPU上调用,在GPU上执行,也就是所谓的内核(kernel)函数;内核主要用来执行多线原创 2016-02-23 17:14:04 · 3918 阅读 · 0 评论
分享