对高度冗余的数据使用什么压缩算法

what compression algorithm to use for highly redundant data

本文关键字:什么 压缩算法 数据 高度 冗余      更新时间:2023-10-16

此程序使用套接字传输高度冗余的2D字节数组(类似图像)。虽然传输速率相对较高(10Mbps),但阵列也是高度冗余的(例如,每行可以包含几个因此相似的值)。我尝试过zlib和lz4,结果很有希望,但我仍然认为有一种更好的压缩方法,请记住,它应该像lz4中那样相对快速。有什么建议吗?

在压缩之前,您应该了解用于过滤图像数据的PNG算法。它们是基于先前值预测2D阵列中的值的简单到更复杂的方法。在预测良好的程度上,滤波可以在随后的压缩步骤中做出显著的改进。

您只需在数据上尝试这些过滤器,然后将其提供给lz4。

您可以创建自己的,如果行中的数据相似,您可以创建一个资源/索引映射,从而大大减小大小,类似于

原始文件:
第1行:1212,34,451212,45,34,56,45,56
第2行:34,451212,78,54,87,。。。。

你可以创建一个唯一值的列表,然后在替换中使用和索引

34,45,54,56,78,871212

第1行:6,0,2,1,0,。。。。。

这可能会为您节省超过30%或更多的数据传输,但这取决于数据的冗余程度

更新

这里有一个简单的实现

std::set<int> uniqueValues
DataTable my2dData; //assuming 2d vector implementation
std::string indexMap;
std::string fileCompressed = "";
int Find(int value){
  for(int i = 0; i < uniqueValues.size; ++i){
     if(uniqueValues[i] == value) return i;
  }
  return -1;
}
//create list of unique values
for(int i = 0; i < my2dData.size; ++i){
  for(int j = 0; j < my2dData[i].size; ++j){
     uniqueValues.insert(my2dData[i][j]);
  }
}    
//create indexes
for(int i = 0; i < my2dData.size; ++i){
  std::string tmpRow = "";
  for(int j = 0; j < my2dData[i].size; ++j){
     if(tmpRow == ""){ 
       tmpRow = Find(my2dData[i][j]);     
     }
     else{
       tmpRow += "," + Find(my2dData[i][j]);
    }
  }
  tmpRow += "nr";
  indexMap += tmpRow;
}
//create file to transfer
for(int k = 0; k < uniqueValues.size; ++k){
  if(fileCompressed == ""){ 
       fileCompressed = "i: " + uniqueValues[k];     
     }
     else{
       fileCompressed += "," + uniqueValues[k];
    }
}
fileCompressed += "nrd:" + indexMap;

现在在接收端,你只需要做相反的事情,如果这行以"i"开头,你就会得到索引,如果它以"d"开头,那么你就会得到数据