拉德曼的 3x3 矩阵乘法只有 23 次乘法,值得吗?

Laderman's 3x3 matrix multiplication with only 23 multiplications, is it worth it?

本文关键字:值得 3x3      更新时间:2023-10-16

取两个 3x3 矩阵的乘积A*B=C .天真地,这需要使用标准算法进行 27 次乘法。如果一个人很聪明,你可以只用23次乘法来做到这一点,这是Laderman在1973年发现的结果。该技术涉及保存中间步骤并以正确的方式组合它们。

现在让我们修复一种语言和一种类型,比如C++ double元素。如果Laderman算法是硬编码的,而不是简单的双循环,我们是否可以期望现代编译器的性能能够消除算法的差异?

关于这个问题的注意事项:这是一个编程站点,这个问题是在时间关键型内部循环的最佳实践的上下文中提出的;过早优化这不是。 非常欢迎有关实施的提示作为评论。

关键是掌握平台上的指令集。这取决于您的平台。有几种技术,当您倾向于需要最大可能的性能时,您的编译器将附带分析工具,其中一些工具内置了优化提示。对于最细粒度的操作,请查看汇编程序输出,看看在该级别是否有任何改进。

同时指令多个数据命令并行对多个操作数执行相同的操作。这样你就可以采取

double a,b,c,d;
double w = d + a; 
double x = a + b;
double y = b + c;
double z = c + d;

并将其替换为

double256 dabc = pack256(d, a, b, c);
double256 abcd = pack256(a, b, c, d);
double256 wxyz = dabc + abcd;
这样,当值加载到寄存器

中时,它们被加载到具有 256 位宽寄存器的某个虚构平台的单个 256 位宽寄存器中。

浮点是一个重要的考虑因素,一些DSP在整数上的操作速度可以明显更快。GPU 在浮点数上往往很棒,尽管有些在单精度下快 2 倍。此问题的 3x3 情况可以放入单个 CUDA 线程中,因此您可以同时流式传输 256 个这些计算。

选择您的平台,阅读文档,实现几种不同的方法并对其进行分析。

计时测试:

我自己进行了计时测试,结果让我感到惊讶(因此我首先问这个问题)。简而言之,在标准编译下,laderman快 ~ 225%,但使用 -03 优化标志,它慢了 50%!每次在-O3标志期间,我都必须在矩阵中添加一个随机元素,或者编译器完全优化了简单的乘法,在时钟精度内花费零时间。由于laderman算法检查/仔细检查很痛苦,我将在下面发布完整的代码供后代使用。

规格:Ubuntu 12.04,戴尔Prev T1600,gcc。时间差异百分比:

  • g++ [2.22, 2.23, 2.27]
  • g++ -O3 [-0.48, -0.49, -0.48]
  • g++ -funroll-loops -O3 [-0.48, -0.48, -0.47]

基准测试代码以及 Laderman 实现:

#include <iostream>
#include <ctime>
#include <cstdio>
#include <cstdlib>
using namespace std;
void simple_mul(const double a[3][3], 
        const double b[3][3],
        double c[3][3]) {
  int i,j,m,n;
  for(i=0;i<3;i++) {
    for(j=0;j<3;j++) {
      c[i][j] = 0;
      for(m=0;m<3;m++) 
    c[i][j] += a[i][m]*b[m][j];
    }
  }
}
void laderman_mul(const double a[3][3], 
           const double b[3][3],
           double c[3][3]) {
   double m[24]; // not off by one, just wanted to match the index from the paper
   m[1 ]= (a[0][0]+a[0][1]+a[0][2]-a[1][0]-a[1][1]-a[2][1]-a[2][2])*b[1][1];
   m[2 ]= (a[0][0]-a[1][0])*(-b[0][1]+b[1][1]);
   m[3 ]= a[1][1]*(-b[0][0]+b[0][1]+b[1][0]-b[1][1]-b[1][2]-b[2][0]+b[2][2]);
   m[4 ]= (-a[0][0]+a[1][0]+a[1][1])*(b[0][0]-b[0][1]+b[1][1]);
   m[5 ]= (a[1][0]+a[1][1])*(-b[0][0]+b[0][1]);
   m[6 ]= a[0][0]*b[0][0];
   m[7 ]= (-a[0][0]+a[2][0]+a[2][1])*(b[0][0]-b[0][2]+b[1][2]);
   m[8 ]= (-a[0][0]+a[2][0])*(b[0][2]-b[1][2]);
   m[9 ]= (a[2][0]+a[2][1])*(-b[0][0]+b[0][2]);
   m[10]= (a[0][0]+a[0][1]+a[0][2]-a[1][1]-a[1][2]-a[2][0]-a[2][1])*b[1][2];
   m[11]= a[2][1]*(-b[0][0]+b[0][2]+b[1][0]-b[1][1]-b[1][2]-b[2][0]+b[2][1]);
   m[12]= (-a[0][2]+a[2][1]+a[2][2])*(b[1][1]+b[2][0]-b[2][1]);
   m[13]= (a[0][2]-a[2][2])*(b[1][1]-b[2][1]);
   m[14]= a[0][2]*b[2][0];
   m[15]= (a[2][1]+a[2][2])*(-b[2][0]+b[2][1]);
   m[16]= (-a[0][2]+a[1][1]+a[1][2])*(b[1][2]+b[2][0]-b[2][2]);
   m[17]= (a[0][2]-a[1][2])*(b[1][2]-b[2][2]);
   m[18]= (a[1][1]+a[1][2])*(-b[2][0]+b[2][2]);
   m[19]= a[0][1]*b[1][0];
   m[20]= a[1][2]*b[2][1];
   m[21]= a[1][0]*b[0][2];
   m[22]= a[2][0]*b[0][1];
   m[23]= a[2][2]*b[2][2];
  c[0][0] = m[6]+m[14]+m[19];
  c[0][1] = m[1]+m[4]+m[5]+m[6]+m[12]+m[14]+m[15];
  c[0][2] = m[6]+m[7]+m[9]+m[10]+m[14]+m[16]+m[18];
  c[1][0] = m[2]+m[3]+m[4]+m[6]+m[14]+m[16]+m[17];
  c[1][1] = m[2]+m[4]+m[5]+m[6]+m[20];
  c[1][2] = m[14]+m[16]+m[17]+m[18]+m[21];
  c[2][0] = m[6]+m[7]+m[8]+m[11]+m[12]+m[13]+m[14];
  c[2][1] = m[12]+m[13]+m[14]+m[15]+m[22];
  c[2][2] = m[6]+m[7]+m[8]+m[9]+m[23];    
}
int main() {
  int N = 1000000000;
  double A[3][3], C[3][3];
  std::clock_t t0,t1;
  timespec tm0, tm1;
  A[0][0] = 3/5.; A[0][1] = 1/5.; A[0][2] = 2/5.;
  A[1][0] = 3/7.; A[1][1] = 1/7.; A[1][2] = 3/7.;
  A[2][0] = 1/3.; A[2][1] = 1/3.; A[2][2] = 1/3.;
  t0 = std::clock();
  for(int i=0;i<N;i++) {
    // A[0][0] = double(rand())/RAND_MAX; // Keep this in for -O3
    simple_mul(A,A,C);
  }
  t1 = std::clock();
  double tdiff_simple = (t1-t0)/1000.;
  cout << C[0][0] << ' ' << C[0][1] << ' ' << C[0][2] << endl;
  cout << C[1][0] << ' ' << C[1][1] << ' ' << C[1][2] << endl;
  cout << C[2][0] << ' ' << C[2][1] << ' ' << C[2][2] << endl;
  cout << tdiff_simple << endl;
  cout << endl;
  t0 = std::clock();
  for(int i=0;i<N;i++) {
    // A[0][0] = double(rand())/RAND_MAX; // Keep this in for -O3
    laderman_mul(A,A,C);
  }
  t1 = std::clock();
  double tdiff_laderman = (t1-t0)/1000.;
  cout << C[0][0] << ' ' << C[0][1] << ' ' << C[0][2] << endl;
  cout << C[1][0] << ' ' << C[1][1] << ' ' << C[1][2] << endl;
  cout << C[2][0] << ' ' << C[2][1] << ' ' << C[2][2] << endl;
  cout << tdiff_laderman << endl;
  cout << endl;
  double speedup = (tdiff_simple-tdiff_laderman)/tdiff_laderman;
  cout << "Approximate speedup: " << speedup << endl;
  return 0;
}

尽管C++提到了这个问题,但我在 C# (.NET 4.5) 中实现了 3x3 矩阵乘法 C=A*B,并在我的 64 位 Windows 7 机器上运行了一些基本的计时测试并进行优化。 10,000,000 次乘法大约需要

  1. 0.556 秒,采用朴素的实现和
  2. 0.874 秒,来自另一个答案的拉德曼代码。

有趣的是,拉德曼密码比天真的方式慢。我没有使用探查器进行调查,但我想额外的分配比一些额外的乘法更昂贵。

看起来当前的编译器足够聪明,可以为我们进行这些优化,这很好。这是我使用的幼稚代码,供您使用:

    public static Matrix3D operator *(Matrix3D a, Matrix3D b)
    {
        double c11 = a.M11 * b.M11 + a.M12 * b.M21 + a.M13 * b.M31;
        double c12 = a.M11 * b.M12 + a.M12 * b.M22 + a.M13 * b.M32;
        double c13 = a.M11 * b.M13 + a.M12 * b.M23 + a.M13 * b.M33;
        double c21 = a.M21 * b.M11 + a.M22 * b.M21 + a.M23 * b.M31;
        double c22 = a.M21 * b.M12 + a.M22 * b.M22 + a.M23 * b.M32;
        double c23 = a.M21 * b.M13 + a.M22 * b.M23 + a.M23 * b.M33;
        double c31 = a.M31 * b.M11 + a.M32 * b.M21 + a.M33 * b.M31;
        double c32 = a.M31 * b.M12 + a.M32 * b.M22 + a.M33 * b.M32;
        double c33 = a.M31 * b.M13 + a.M32 * b.M23 + a.M33 * b.M33;
        return new Matrix3D(
            c11, c12, c13,
            c21, c22, c23,
            c31, c32, c33);
    }

其中 Matrix3D 是不可变的结构(只读双精度字段)。

棘手的事情是提出一个有效的基准,您可以在其中测量代码而不是编译器对您的代码做了什么(调试器包含大量额外内容,或者在没有实际代码的情况下进行优化,因为结果从未使用过)。我通常尝试"触摸"结果,以便编译器无法删除被测试的代码(例如,检查矩阵元素是否与 89038.8989384 相等,如果相等,则抛出)。但是,最后我什至不确定编译器是否破解了这种比较:)

我希望主要的性能问题是内存延迟。double[9]通常为 72 字节。这已经是一个不小的数量,你正在使用其中的三个。