CUDA: 包含C和.cu的工程实现

本文介绍如何在纯C工程中调用CUDA (.cu) 文件的方法。通过设置自定义生成步骤,添加必要的编译指令,并配置正确的库依赖,实现C与CUDA代码的交互。文章还提供了具体的命令行参数和注意事项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

现有一纯C的工程,想在里面调用.cu文件的函数。Project里面有一个cppIntegeration的例子,不过这个是在CPP里面调用.cu里面的函数,而且,这个工程在sdk里面,很多头文件,库之类的直接引用,因此,可移植性很差。摸索了几天,终于解决了C工程调用CU文件的问题。一起分享一下~~~

 

新建两个文件,A.cu和A_kernel.cu,其中,A.cu作为调用的接口,A_kernel.cu里面实现的功能函数。

然后,在A.cu-》右键-》属性-》自定义生成步骤-》常规-》命令行,添加如下命令:

"$(CUDA_BIN_PATH)nvcc.exe" -ccbin "$(VCInstallDir)bin" -I"$(NVSDKCUDA_ROOT)commoninc" -I"$(CUDA_INC_PATH)" -I.  --host-compilation C -g -c -m 32 -o "$(InputName).obj" "$(InputDir)$(InputName).cu"

注意,必须加上:--host-compilation,否则,提示,LINK : fatal error LNK1561: 必须定义入口点。另外,必须把SDK和INC的路径加进来,才能在A.cu中include "cutil.h"的这些头文件。

并在开始A.cu头部加上include <A_kernel.cu>。

注意:生成的.obj的路径必须是:"$(InputName).obj",否则,会在编译的时候提示,找不到f.obj。

 

对于A.cu里面的函数f,需如下定义:

  extern "C" void f(){} //定义的时候,必须这样定义,否则,链接的时候提示:无法解析_f。

但是,在C文件里面引用它的时候,必须申明如下:

  extern void f(){};  //注意:如果加上"C"就会报错:错误的字符。

另外,在C工程的  链接器-》输入-》附加依赖项 里面,添加

 cudart.lib cutil32.lib  //必须添加这两个库,否则提示:无法解析的外部符号_cudaConfigureCall@32等错误。

这样,就可以在C文件里面调用 f()了。

问题解决了,可以进行下一步工作了!!!

PS:发现很多人都用blog记载技术问题,很不错的习惯,好记性不如blog之...

``` cc := g++ name := pro workdir := workspace srcdir := src objdir := objs stdcpp := c++11 cuda_home := /datav/software/anaconda3/lib/python3.9/site-packages/trtpy/trt8cuda112cudnn8 syslib := /datav/software/anaconda3/lib/python3.9/site-packages/trtpy/lib cpp_pkg := /datav/software/anaconda3/lib/python3.9/site-packages/trtpy/cpp-packages cuda_arch := nvcc := $(cuda_home)/bin/nvcc -ccbin=$(cc) # 定义cpp的路径查找依赖项mk文件 cpp_srcs := $(shell find $(srcdir) -name "*.cpp") cpp_objs := $(cpp_srcs:.cpp=.cpp.o) cpp_objs := $(cpp_objs:$(srcdir)/%=$(objdir)/%) cpp_mk := $(cpp_objs:.cpp.o=.cpp.mk) # 定义cu文件的路径查找依赖项mk文件 cu_srcs := $(shell find $(srcdir) -name "*.cu") cu_objs := $(cu_srcs:.cu=.cu.o) cu_objs := $(cu_objs:$(srcdir)/%=$(objdir)/%) cu_mk := $(cu_objs:.cu.o=.cu.mk) # 定义opencvcuda需要用到的库文件 link_cuda := cudart cudnn link_trtpro := link_tensorRT := nvinfer nvinfer_plugin link_opencv := link_sys := stdc++ dl protobuf link_librarys := $(link_cuda) $(link_tensorRT) $(link_sys) $(link_opencv) # 定义头文件路径,请注意斜杠后边不能有空格 # 只需要写路径,不需要写-I include_paths := src \ $(cuda_home)/include/cuda \ $(cuda_home)/include/tensorRT \ $(cpp_pkg)/opencv4.2/include \ $(cuda_home)/include/protobuf # 定义库文件路径,只需要写路径,不需要写-L library_paths := $(cuda_home)/lib64 $(syslib) $(cpp_pkg)/opencv4.2/lib # 把library path给拼接为一个字符串,例如a b c => a:b:c # 然后使得LD_LIBRARY_PATH=a:b:c empty := library_path_export := $(subst $(empty) $(empty),:,$(library_paths)) # 把库路径头文件路径拼接起来成一个,批量自动加-I、-L、-l run_paths := $(foreach item,$(library_paths),-Wl,-rpath=$(item)) include_paths := $(foreach item,$(include_paths),-I$(item)) library_paths := $(foreach item,$(library_paths),-L$(item)) link_librarys := $(foreach item,$(link_librarys),-l$(item)) # 如果是其他显卡,请修改-gencode=arch=compute_75,code=sm_75为对应显卡的能力 # 显卡对应的号码参考这里:https://developer.nvidia.com/zh-cn/cuda-gpus#compute # 如果是 jetson nano,提示找不到-m64指令,请删掉 -m64选项。不影响结果 cpp_compile_flags := -std=$(stdcpp) -w -g -O0 -m64 -fPIC -fopenmp -pthread cu_compile_flags := -std=$(stdcpp) -w -g -O0 -m64 $(cuda_arch) -Xcompiler "$(cpp_compile_flags)" link_flags := -pthread -fopenmp -Wl,-rpath='$$ORIGIN' cpp_compile_flags += $(include_paths) cu_compile_flags += $(include_paths) link_flags += $(library_paths) $(link_librarys) $(run_paths) # 如果头文件修改了,这里的指令可以让他自动编译依赖的cpp或者cu文件 ifneq ($(MAKECMDGOALS), clean) -include $(cpp_mk) $(cu_mk) endif $(name) : $(workdir)/$(name) all : $(name) run : $(name) @cd $(workdir) && ./$(name) $(run_args) $(workdir)/$(name) : $(cpp_objs) $(cu_objs) @echo Link $@ @mkdir -p $(dir $@) @$(cc) $^ -o $@ $(link_flags) $(objdir)/%.cpp.o : $(srcdir)/%.cpp @echo Compile CXX $< @mkdir -p $(dir $@) @$(cc) -c $< -o $@ $(cpp_compile_flags) $(objdir)/%.cu.o : $(srcdir)/%.cu @echo Compile CUDA $< @mkdir -p $(dir $@) @$(nvcc) -c $< -o $@ $(cu_compile_flags) # 编译cpp依赖项,生成mk文件 $(objdir)/%.cpp.mk : $(srcdir)/%.cpp @echo Compile depends C++ $< @mkdir -p $(dir $@) @$(cc) -M $< -MF $@ -MT $(@:.cpp.mk=.cpp.o) $(cpp_compile_flags) # 编译cu文件的依赖项,生成cumk文件 $(objdir)/%.cu.mk : $(srcdir)/%.cu @echo Compile depends CUDA $< @mkdir -p $(dir $@) @$(nvcc) -M $< -MF $@ -MT $(@:.cu.mk=.cu.o) $(cu_compile_flags) # 定义清理指令 clean : @rm -rf $(objdir) $(workdir)/$(name) $(workdir)/*.trtmodel $(workdir)/demo.onnx # 防止符号被当做文件 .PHONY : clean run $(name) # 导出依赖库路径,使得能够运行起来 export LD_LIBRARY_PATH:=$(library_path_export)```cpp_compile_flags := -std=$(stdcpp) -w -g -O0 -m64 -fPIC -fopenmp -pthread cu_compile_flags := -std=$(stdcpp) -w -g -O0 -m64 $(cuda_arch) -Xcompiler "$(cpp_compile_flags)" link_flags := -pthread -fopenmp -Wl,-rpath='$$ORIGIN'解释一下什么意思,具体一些
03-08
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值