cuda-gdb 常用命令

本文详细介绍了CUDA-GDB的使用方法,包括编译、启动、列表、设置断点、运行、下一步、打印、继续运行、监视表达式、删除断点和退出等基本操作。同时,文章还展示了CUDA-GDB提供的CUDA专用指令及其特殊语义。
部署运行你感兴趣的模型镜像

cuda gdb
   
编译:nvcc -g -G -o foo foo.cu
启动:cuda-gdb foo
列表:list(缩略的指令l,以查看源代码第81行附近的指令行。 l 81
设置断点:break 函数名                 b office2007_kernel
          break 文件:行号             b office2007_gpu.cu:60
运行:run 参数                         r t1.txt
下一步:next,按enter执行上一步的next  缩略指令n
打印:print a,打印a的值               p blockIdx
      (print /x x)                    p threadIdx
                                       p gridDim
           p blockDim
继续运行:continue(c),在一个断点之后继续运行程序
监视某个表达式:watch block0
查看某一个线程的数据:thread <<<170>>>,线程号为170  ???
    cuda thread 10 可行
删除断点:delete b or d b
退出gdb:quit

CUDA-GDB提供了诸多CUDA专用的指令:
thread – 显示现有重点主机和CUDA线程;
thread <<<(TX,TY,TZ)>>> - 转换到在指定座标的CUDA线程
thread <<<(BX,BY),(TX,TY,TZ)>>> -转换到在指定座标的CUDA块和线程
info cuda threads – 显示GPU上现有所有CUDA线程的全面总结
info cuda threads all – 显示GPU上现有线程的列表。这个列表可能非常之长。
info cuda state – 显示有关现有CUDA状态的信息。
Next and step 指令的特殊语义:
在warp 等级,执行被推进,在同一个warp里的所有线程,被当作现有CUDA线程,将进

行运算。
一个特殊情况就是:步入线程阻碍调用,__syncthreads(), 这就导致在阻碍之后立即

会设定一个隐式断点。所有的线程都被延续到这个__syncthreads()之后的断点。

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值