与 MATLAB 相比,使用 cuSolver 时,SVD 非常慢

SVD very slow when using cuSolver as compared to MATLAB

本文关键字:SVD 非常 使用 MATLAB 相比 cuSolver      更新时间:2023-10-16

我正在尝试使用cuSOLVER中的gesvd函数,我发现它比 MATLAB 中的svd函数慢得多,这两种情况都使用数组或gpuArray double

C++代码 [使用 cuSolver ]

#include <stdio.h>
#include <stdlib.h>
#include <assert.h>
#include <cuda_runtime.h>
#include <cusolverDn.h>
// Macro for timing kernel runs
#define START_METER {
    cudaEvent_t start, stop;
    float elapsedTime;
    cudaEventCreate(&start);
    cudaEventRecord(start, 0);
#define STOP_METER cudaEventCreate(&stop);
    cudaEventRecord(stop, 0);
    cudaEventSynchronize(stop);
    cudaEventElapsedTime(&elapsedTime, start, stop);
    printf("Elapsed time : %f msn", elapsedTime);
                }
void cusolverSVD_Test()
{
    const int m = 64;
    const int rows = m;
    const int cols = m;
    /*       | 3.5 0.5 0 |
    *   A = | 0.5 3.5 0 |
    *       | 0   0   2 |
    *
    */
    double A[rows*m];
    for (int i = 0; i < cols; i++)
    {
        for (int j = 0; j < rows; j++)
        {
            A[i*rows + j] = (double)rand() / RAND_MAX;
            if (i == j){
                A[i*rows + j] += 1;
            }
        }
    }
    cusolverDnHandle_t handle;
    cusolverDnCreate(&handle);
    int lwork;
    cusolverDnDgesvd_bufferSize(
        handle,
        rows,
        cols,
        &lwork);
    double *d_A;
    cudaMalloc(&d_A, sizeof(double)*rows*cols);
    cudaMemcpy(d_A, A, sizeof(double)*rows*cols, cudaMemcpyHostToDevice);
    double *d_S;
    cudaMalloc(&d_S, sizeof(double)*rows);
    double *d_U;
    cudaMalloc(&d_U, sizeof(double)*rows*rows);
    double *d_VT;
    cudaMalloc(&d_VT, sizeof(double)*rows*rows);
    double *d_work;
    cudaMalloc(&d_work, sizeof(double)*lwork);
    double *d_rwork;
    cudaMalloc(&d_rwork, sizeof(double)*(rows - 1));
    int *devInfo;
    cudaMalloc(&devInfo, sizeof(int));
    for (int t = 0; t < 10; t++)
    {
        signed char jobu = 'A';
        signed char jobvt = 'A';
        START_METER
            cusolverDnDgesvd(
            handle,
            jobu,
            jobvt,
            rows,
            cols,
            d_A,
            rows,
            d_S,
            d_U,
            rows,
            d_VT,
            rows,
            d_work,
            lwork,
            d_rwork,
            devInfo);
        STOP_METER
    }
    cudaFree(d_A);
    cudaFree(d_rwork);
    cudaFree(d_S);
    cudaFree(d_U);
    cudaFree(d_VT);
    cudaFree(d_work);
}
int main()
{
    cusolverSVD_Test();
}

输出

Elapsed time : 63.318016 ms
Elapsed time : 66.745316 ms
Elapsed time : 65.966530 ms
Elapsed time : 65.999939 ms
Elapsed time : 64.821053 ms
Elapsed time : 65.184547 ms
Elapsed time : 65.722916 ms
Elapsed time : 60.618786 ms
Elapsed time : 54.937569 ms
Elapsed time : 53.751263 ms
Press any key to continue . . .

**使用 svd 函数的 Matlab 代码*:

%% SVD on gpu
A = rand(64, 64) + eye(64);
tic
[~, ~, ~] = svd(A);
t = toc;
fprintf('CPU time: %f msn', t*1000);

d_A = gpuArray(A);
tic
[~, ~, ~] = svd(d_A);
t = toc;
fprintf('GPU time: %f msn', t*1000);
%% Output
% >> CPU time: 0.947754 ms
% >> GPU time: 2.168100 ms

Matlab是否使用更快的算法?还是我只是犯了一些错误?我真的需要一个好的SVD实现/算法,我可以在CUDA中使用。

更新:使用 1000

x 1000 矩阵时的执行时间

C++

3655 ms (Double Precision)
2970 ms (Single Precision)

矩阵:

CPU time: 280.641123 ms
GPU time: 646.033498 ms

SVD 算法不能很好地并行化是一个已知问题。您会发现需要非常大的数组才能看到双精度的好处。对于 GPU 的单精度,您可能会获得更好的结果。如果您只请求一个输出,您还将获得更好的结果,因为单独计算奇异值使用更快的算法。

这也高度依赖于 GPU 的质量。如果您使用的是像GeForce GTX这样的显卡,对于像SVD这样的算法来说,GPU在双精度方面真的不会有太大的好处。

从根本上说,GPU 内核的性能远低于现代 CPU 内核,它们通过非常宽的并行性弥补了这一点。SVD 算法对序列分解迭代的依赖性太高。也许你可以通过重新思考代数来解决你的问题,这样你就不需要每次都计算完整的因式分解。