CUDA 是否包含真正的 c++ 库
Does CUDA include a real c++ library?
CUDA c++"语言是一种c++派生语言,但标准编译器不支持它,但可以由nVidia的nvcc编译器编译。这可能会导致多语言项目,这些项目的 GPU 模块使用 nvcc 编译,非 GPU 模块使用 gcc 编译。
例如,语法kernel<<<dims>>>(params)
不是 c++ 的一部分。
nVidia是否包含一个GPU库(作为CUDA的一部分),实际上可以与标准c ++编译器(如gcc)一起使用?
CUDA GPU 需要为 GPU 编译设备代码,这与您在为 x86 目标编译的典型库中找到的 x86 机器代码不同。
因此,要使用GPU,您将以某种方式需要nvidia编译器来生成机器代码。
有多种方法可以实现此目的:
-
使用库。 CUDA 附带的库(如 CUBLAS、CUSPARSE、CUSOLVER 和 CUFFT)包括预编译的 GPU 例程,这些例程可从普通主机代码调用和链接。 这些库都可以与标准 c++ 编译器(如 g++)一起使用。
-
来自 cuda 驱动程序 API 和 cuda 运行时 API 的大多数例程都可以使用标准 c++ 编译器从普通主机代码调用和链接。 但是,这并不能解决如何处理设备代码的问题。 如果使用驱动程序 API(不包括
kernel<<<...>>>
等语法元素)以 PTX 形式交付设备代码,则不需要 nvcc,并且可以使用标准编译器(如 g++)完全构建应用程序。 -
如果设备代码以 C/C++ 源形式(即 CUDA C/C++)交付,则通常需要 nvcc 将代码转换为 PTX(以便可以使用上面的方法 2)或直接转换为二进制编译格式,该格式可由驱动程序 API 或运行时 API 使用。
-
将来,您可能还希望关注 CUDA 运行时编译机制不断发展的功能。
-
既然你提到了 gcc,你可能还想关注 gcc 中 OpenACC 支持的不断发展的功能。
- 在提升multi_index容器中,是否定义了"default index"?
- 在C++STL中是否有Polyval(Matlab函数)等价物?
- 检查输入是否不是整数或数字
- 是否可以初始化不可复制类型的成员变量(或基类)
- 在C++中,是否可以基于给定的标识符创建基类的新实例,反之亦然
- 是否可以通过C++扩展强制多个python进程共享同一内存
- 此代码是否违反一个定义规则
- 是否需要删除包含对象的"pair"?
- 是否可以从int转换为enum类类型
- 无论条件是否为true,if总是在c++中执行
- 如何找到大小'x'数组是否完全填充,在C++?
- 检查值是否在集合p1和p2中,但不在p3中
- 是否可以在编译时初始化数组,以便在运行时不会花费时间?
- 检查 std::shared_ptr<> 的当前底层类型是否为 T
- 在c++中检查长方体是否尽可能快地重叠(无迭代)
- GL_SHADERSTORAGE_BUFFER位置是否与其他着色器位置冲突
- 子目录是否继承属性,例如add_definitions,include_directories和父Cmakelist.t
- 标准是否使用多余的大括号(例如 T{{{10}}})定义列表初始化?
- C/C++预处理器是否可以检测一些编译器选项
- 是否可以用"iostream"包装现有的TCP/OOpenSSL会话