如何在CUDA中限制GPU内存大小
How to restrict the GPU memory size in CUDA?
我正在实现一个核心外的算法。我可用的GPU内存大小是4GB。然而,为了在较小的数据集上测试和比较我的算法与其他版本,我想限制我可用的GPU上的内存大小。有什么办法可以做到吗?
(我总是不能使用大量的内存存在,然而,我必须表明,如果其他版本使用的内存超过可用的内存,那么其他版本崩溃,而我的算法继续运行的核心,因此它将是伟大的,如果有一种方法来限制GPU上可用的全局内存大小,编程或其他方式)。
一种解决方案是cudaMalloc
一个虚拟指针,其大小与您希望在程序开始时从可用内存中取出的大小相同。
相关文章:
- C++:从GPU内存(cudaMemcpy2D)获取BGR图像(cv::Mat)
- 在C++应用程序中使用 Tensorflow:如何释放 GPU 内存
- CUDA 数组如何存储在 GPU 内存中?它们在物理上是线性的吗?
- GPU 内存访问和使用 (CUDA)
- OPENCL发布GPU内存
- 如何使用Qt的原生OpenGL获得总GPU内存?
- 使用OpenCL,如何获取GPU内存使用量
- 如何在单独的CUDA函数中分配GPU内存
- 在 CUDA 上__constant__内存和多 GPU
- 如何在GPU内存中获取最大数组大小
- 如何使用OpenCL处理GPU内存中总大小过大的图像
- 带有 c# 的 c++ AMP 库:如何将数据保存在 GPU 内存中
- 在CUDA中为GPU内存中的变量赋值
- 可以使用cublasDdot()在非gpu内存中使用blas操作吗?
- 以编程方式获取GPU内存使用情况
- 我如何在GPU内存中连续存储矩阵并在需要时使用它
- 如何在CUDA中限制GPU内存大小
- OpenGL-gpu内存超出,可能的情况
- 跟踪GPU内存泄漏的专业方法(分配而不释放)
- 无法将着色器发送到 GPU 内存