如何使用 GPU 将 2 个 OpenCV 垫相乘
How to multiply 2 OpenCV mats using a GPU
在OpenCV中,我可以将RGB 1920 x 1080 mat乘以3 x 3 mat来更改源Mat的颜色组合。一旦我的源垫形状正确,我就可以使用"*"运算符来执行乘法。使用 cv::gpu::GpuMat 时,此运算符不可用。
我的问题是我将如何格式化我的输入源 Mat 以使用 cv::gpu::gemm?我甚至可以使用 cv::gpu::gemm 吗?
据我所知,这是 OpenCV 库中唯一执行矩阵乘法的调用。 cv::gpu::gemm 希望看到一个CV_32FC1,CV_64FC1类型垫。我通常与CPU一起使用的类型是CV_32FC3。
//sourceMat is CV_32FC3 1920 x 1080 Mat
Mat sourceMat = matFromBuffer(data->bufferA, data->widthA, data->heightA);
//This is the color Matrix
float matrix[3][3] = {{1.057311, -0.204043, 0.055648},
{ 0.041556, 1.875992, -0.969256},
{-0.498535,-1.537150, 3.240479}};
Mat colorMatrixMat = Mat(3, 3, CV_32FC1, matrix).t();
//Color Correct the Mat
Mat linearSourceMat = sourceMat.reshape(1, 1080*1920);
Mat multipliedMatrix = linearSourceMat * colorMatrixMat;
Mat recoloredMat = multipliedMatrix.reshape(3, 1080);
更新:作为测试,我创建了测试例程:
static int gpuTest(){
float matrix[9] = {1.057311, -0.204043, 0.055648, 0.041556, 1.875992, -0.969256, -0.498535,-1.537150, 3.240479};
Mat matrixMat = Mat(1, 9, CV_32FC1, matrix).t();
cv::gpu::GpuMat gpuMatrixMat;
gpuMatrixMat.upload(matrixMat);
float matrixDest[9] = {1,1,1,1,1,1,1,1,1};
Mat matrixDestMat = Mat(1, 9, CV_32FC1, matrixDest).t();
cv::gpu::GpuMat destMatrixMat;
destMatrixMat.upload(matrixDestMat);
cv::gpu::GpuMat nextMat;
cv::gpu::gemm(gpuMatrixMat, destMatrixMat, 1, cv::gpu::GpuMat(), 0, nextMat);
return 0;
};
我收到的错误是:
OpenCV Error: Assertion failed (src1Size.width == src2Size.height) in gemm, file /Users/myuser/opencv-2.4.12/modules/gpu/src/arithm.cpp, line 109
libc++abi.dylib: terminating with uncaught exception of type cv::Exception: /Users/myuser/opencv-2.4.12/modules/gpu/src/arithm.cpp:109: error: (-215) src1Size.width == src2Size.height in function gemm
现在 src1Size.width 如何等于 src2Size.height?宽度和高度不同。
下面是使用 OpenCV 3.1 的最小工作示例。
#include <opencv2/opencv.hpp>
#include <opencv2/cudaarithm.hpp>
int main()
{
cv::Mat sourceMat = cv::Mat::ones(1080, 1920, CV_32FC3);
//This is the color Matrix
float matrix[3][3] = {
{ 1.057311, -0.204043, 0.055648 }
, { 0.041556, 1.875992, -0.969256 }
, { -0.498535, -1.537150, 3.240479 }
};
cv::Mat colorMatrixMat = cv::Mat(3, 3, CV_32FC1, matrix).t();
cv::Mat linearSourceMat = sourceMat.reshape(1, 1080 * 1920);
cv::Mat multipliedMatrix = linearSourceMat * colorMatrixMat;
try {
cv::Mat dummy, gpuMultipliedMatrix;
// Regular gemm
cv::gemm(linearSourceMat, colorMatrixMat, 1.0, dummy, 0.0, gpuMultipliedMatrix);
// CUDA gemm
// cv::cuda::gemm(linearSourceMat, colorMatrixMat, 1.0, dummy, 0.0, gpuMultipliedMatrix);
std::cout << (cv::countNonZero(multipliedMatrix != gpuMultipliedMatrix) == 0);
} catch (cv::Exception& e) {
std::cerr << e.what();
return -1;
}
}
请注意,当要gemm(...)
的 beta 参数为零时,将忽略第三个输入矩阵(基于代码)。
不幸的是,我没有使用 CUBLAS 编译的 OpenCV 版本可供尝试,但它应该可以工作。
以下有些猜测...
要使其与OpenCV 2.4一起使用,您需要添加更多内容。在调用 gemm(...)
之前,您需要创建GpuMat
对象并上传数据。
cv::gpu::GpuMat gpuLinSrc, gpuColorMat, dummy, gpuResult;
gpuLinSrc.upload(linearSourceMat);
gpuColorMat.upload(colorMatrixMat);
然后。。。
cv::gpu::gemm(gpuLinSrc, gpuColorMat, 1.0, cv::gpu::GpuMat(), 0.0, gpuResult);
最后从GPU下载数据。
cv::Mat resultFromGPU;
gpuResult.download(resultFromGPU);
更新
下面是一个更详细的示例,向您展示正在发生的事情:
#include <opencv2/opencv.hpp>
#include <iostream>
#include <numeric>
#include <vector>
// ============================================================================
// Make a 3 channel test image with 5 rows and 4 columns
cv::Mat make_image()
{
std::vector<float> v(5 * 4);
std::iota(std::begin(v), std::end(v), 1.0f); // Fill with 1..20
cv::Mat seq(5, 4, CV_32FC1, v.data()); // 5 rows, 4 columns, 1 channel
// Create 3 channels, each with different offset, so we can tell them apart
cv::Mat chans[3] = {
seq, seq + 100, seq + 200
};
cv::Mat merged;
cv::merge(chans, 3, merged); // 5 rows, 4 columns, 3 channels
return merged;
}
// Make a transposed color correction matrix.
cv::Mat make_color_mat()
{
float color_in[3][3] = {
{ 0.1f, 0.2f, 0.3f } // Coefficients for channel 0
, { 0.4f, 0.5f, 0.6f } // Coefficients for channel 1
, { 0.7f, 0.8f, 0.9f } // Coefficients for channel 2
};
return cv::Mat(3, 3, CV_32FC1, color_in).t();
}
void print_mat(cv::Mat m, std::string const& label)
{
std::cout << label << ":n size=" << m.size()
<< "n channels=" << m.channels()
<< "n" << m << "n" << std::endl;
}
// Perform matrix multiplication to obtain result point (r,c)
float mm_at(cv::Mat a, cv::Mat b, int r, int c)
{
return a.at<float>(r, 0) * b.at<float>(0, c)
+ a.at<float>(r, 1) * b.at<float>(1, c)
+ a.at<float>(r, 2) * b.at<float>(2, c);
}
// Perform matrix multiplication to obtain result row r
cv::Vec3f mm_test(cv::Mat a, cv::Mat b, int r)
{
return cv::Vec3f(
mm_at(a, b, r, 0)
, mm_at(a, b, r, 1)
, mm_at(a, b, r, 2)
);
}
// ============================================================================
int main()
{
try {
// Step 1
cv::Mat source_image(make_image());
print_mat(source_image, "source_image");
std::cout << "source pixel at (0,0): " << source_image.at<cv::Vec3f>(0, 0) << "nn";
// Step 2
cv::Mat color_mat(make_color_mat());
print_mat(color_mat, "color_mat");
// Step 3
// Reshape the source matrix to obtain a matrix:
// * with only one channel (CV_32FC1)
// * where each row corresponds to a single pixel from source
// * where each column corresponds to a single channel from source
cv::Mat reshaped_image(source_image.reshape(1, source_image.rows * source_image.cols));
print_mat(reshaped_image, "reshaped_image");
// Step 4
cv::Mat corrected_image;
// corrected_image = 1.0 * reshaped_image * color_mat
cv::gemm(reshaped_image, color_mat, 1.0, cv::Mat(), 0.0, corrected_image);
print_mat(corrected_image, "corrected_image");
// Step 5
// Reshape back to the original format
cv::Mat result_image(corrected_image.reshape(3, source_image.rows));
print_mat(result_image, "result_image");
std::cout << "result pixel at (0,0): " << result_image.at<cv::Vec3f>(0, 0) << "nn";
// Step 6
// Calculate one pixel manually...
std::cout << "check pixel (0,0): " << mm_test(reshaped_image, color_mat, 0) << "nn";
} catch (cv::Exception& e) {
std::cerr << e.what();
return -1;
}
}
// ============================================================================
步骤 1
首先,我们创建一个小的测试输入图像:
- 图像包含 3 个浮点值通道,即数据类型为
CV_32FC3
。让我们按该顺序将通道视为红色、绿色、蓝色。 - 图像包含 5 行像素。
- 图像包含 4 列像素。
- 每个通道中的值依次为
green = red + 100
和blue = red + 200
。
source_image:
size=[4 x 5]
channels=3
[1, 101, 201, 2, 102, 202, 3, 103, 203, 4, 104, 204;
5, 105, 205, 6, 106, 206, 7, 107, 207, 8, 108, 208;
9, 109, 209, 10, 110, 210, 11, 111, 211, 12, 112, 212;
13, 113, 213, 14, 114, 214, 15, 115, 215, 16, 116, 216;
17, 117, 217, 18, 118, 218, 19, 119, 219, 20, 120, 220]
我们可以打印出单个像素,以使结构更清晰:
source pixel at (0,0): [1, 101, 201]
步骤 2
创建示例颜色校正矩阵(转置),以便:
- 第一列包含用于确定红色值的系数
- 第二列包含用于确定绿色值的系数
- 第三列包含用于确定蓝色值的系数
color_mat:
size=[3 x 3]
channels=1
[0.1, 0.40000001, 0.69999999;
0.2, 0.5, 0.80000001;
0.30000001, 0.60000002, 0.89999998]
旁注:色彩校正算法
我们希望使用系数 C 将源像素 S 转换为像素 T
S = [ sr, sg, sb ]
T = [ tr, tg, tb ]
C = [ cr1, cr2, cr3;
cg1, cg2, cg3;
cb1, cb2, cb3]
这样
Tr = cr1 * sr + cr2 * sg + cr3 * sb
Tg = cg1 * sr + cg2 * sg + cg3 * sb
Tb = cb1 * sr + cb2 * sg + cb3 * sb
可以用以下矩阵表达式表示
T = S * C_transpose
步骤 3
为了能够使用上述算法,我们首先需要将图像重塑为一个矩阵,该矩阵:
- 包含一个通道,因此每个点的值只是一个浮点数
- 每行一个像素。
- 有 3 列代表红色、绿色、蓝色
在此形状中,矩阵乘法意味着输入中的每个像素/行乘以系数矩阵以确定输出中的一个像素/行。
重塑后的矩阵如下所示:
reshaped_image:
size=[3 x 20]
channels=1
[1, 101, 201;
2, 102, 202;
3, 103, 203;
4, 104, 204;
5, 105, 205;
6, 106, 206;
7, 107, 207;
8, 108, 208;
9, 109, 209;
10, 110, 210;
11, 111, 211;
12, 112, 212;
13, 113, 213;
14, 114, 214;
15, 115, 215;
16, 116, 216;
17, 117, 217;
18, 118, 218;
19, 119, 219;
20, 120, 220]
步骤 4
我们执行乘法,例如使用 gemm
,得到以下矩阵:
corrected_image:
size=[3 x 20]
channels=1
[80.600006, 171.5, 262.39999;
81.200005, 173, 264.79999;
81.800003, 174.5, 267.20001;
82.400002, 176, 269.60001;
83, 177.5, 272;
83.600006, 179, 274.39999;
84.200005, 180.5, 276.79999;
84.800003, 182, 279.20001;
85.400002, 183.5, 281.60001;
86, 185, 284;
86.600006, 186.5, 286.39999;
87.200005, 188, 288.79999;
87.800003, 189.5, 291.20001;
88.400009, 191, 293.60001;
89, 192.5, 296;
89.600006, 194, 298.39999;
90.200005, 195.50002, 300.79999;
90.800003, 197, 303.20001;
91.400009, 198.5, 305.60001;
92, 200, 308]
步骤 5
现在我们可以将图像重塑回原始形状。结果是
result_image:
size=[4 x 5]
channels=3
[80.600006, 171.5, 262.39999, 81.200005, 173, 264.79999, 81.800003, 174.5, 267.20001, 82.400002, 176, 269.60001;
83, 177.5, 272, 83.600006, 179, 274.39999, 84.200005, 180.5, 276.79999, 84.800003, 182, 279.20001;
85.400002, 183.5, 281.60001, 86, 185, 284, 86.600006, 186.5, 286.39999, 87.200005, 188, 288.79999;
87.800003, 189.5, 291.20001, 88.400009, 191, 293.60001, 89, 192.5, 296, 89.600006, 194, 298.39999;
90.200005, 195.50002, 300.79999, 90.800003, 197, 303.20001, 91.400009, 198.5, 305.60001, 92, 200, 308]
让我们从结果中看一个像素:
result pixel at (0,0): [80.6, 171.5, 262.4]
步骤 6
现在我们可以通过手动执行适当的计算来仔细检查我们的结果(函数 mm_test
和 mm_at
)。
check pixel (0,0): [80.6, 171.5, 262.4]
- 如何在 opencv 中使用 cv::VideoCapture::waitAny()
- OPENCV - 如何在OpenCV中使用Haar Cascade Github xml文件?
- Opencv中使用c++的矩阵乘法
- Opencv cpp 使用多线程处理同一视频的不同部分
- 在 OpenCV 中使用 hog.compute(..) 进行访问冲突
- 使用OpenCV为使用GENICAM API和C++的各种相机创建程序
- 如何在 OpenCV 中使用 OutputArrayOfArrays C++
- 如何在OpenCV中使用双类型映射进行重新映射
- 如何通过C++在openCV中使用CNN
- 如何使用2通道垫子中的OPENCV中使用SVM
- 在OpenCV中使用PCA进行降维
- OPENCV:如何使用5点算法从来自不同相机的两个图像之间的特征匹配来计算必需矩阵
- 有没有办法避免在OpenCV中使用RTSP相机时缓冲图像?
- 在 opencv 中使用 Color_YUV2BGR 从 YUV 到 BGR 的错误转换
- 如何在 Unity Android 应用程序中的 OpenCV 中使用 ARCore 相机图像
- 如何在Mac上安装C 的OPENCV并使用NetBean配置
- 是否可以使用TensorFlow训练自己的模块,然后在OpenCV中使用它进行检测
- 当我在opencv中使用calib3d.hpp时重新定义类
- 在 openCV 中使用垫子的动画
- 在Android OpenCV中使用FindFundaMentalMat时会出现错误,并且无法解决