CUDA 内核中的重载赋值运算符

Overloading assignment operator in CUDA kernel

本文关键字:重载 赋值运算符 内核 CUDA      更新时间:2023-10-16

要充分利用使用sm_21架构的具有CUDA功能的GPU,需要使用矢量数据类型(如uint2)编写内核。

想象一下内核中的一行,如下所示:

uint2 a = make_uint2 (123);

这工作正常。值 123 存储到 a.x 和 a.y。但是读取写入是很烦人的,尤其是当您必须编写大型代码块并初始化大量变量时。

我习惯于编写纯C代码,所以我不是一个C++极客。也许我正在寻找的东西很简单。

我知道有可能使操作员"超载"。我的问题是:是否也可以重载赋值运算符?

我试过这个:

inline __device__ uint2 operator = (int a)
{
  return make_uint2 (a, a);
}

但它失败并显示错误消息:

错误:"运算符="必须是成员函数

任何人?

可以重载赋值运算符,但是(正如错误消息告诉您的那样)它必须是成员函数。这意味着要使用它,您必须创建一个类来充当uint2的"包装器"。但是,当您这样做时,您很有可能实际上不需要/想要重载operator= - 相反,您只需创建一个 ctor 从uint2创建包装器的实例,另一个从int创建一个包装器实例。这些将用于从您提供的值创建包装器的实例,并将该临时实例分配给目标。代码如下所示:

class uint_2 {
    uint2 value;
public:
    uint_2(uint2 init) : value(init) {}
    uint_2(int init) : value(make_uint2(init)) {}
    operator uint2() { return value; }
};

特别是考虑到您正在使用 CUDA,可能会出现有关效率的问题,因此我将预先解决这些问题:在正常情况下,这可能不会产生任何开销。但是,我对 CUDA 的情况以及您是否能够(例如)在上面的代码中使用__device__不太确定。我的直接猜测可能不是,但说实话,我真的只是不知道 - 几年前我写了一些 CUDA 代码,当时它是新的,但我很确定我从未尝试过这个。我怀疑我是否肯定会改变规则,但如果我这样做了,我就不再记得了。