如何分析和/或消除由于内存分配引起的性能变化

How can one analyse and/or eliminate performance variations due to memory allocation?

本文关键字:分配 内存 变化 性能 于内存      更新时间:2023-10-16

我有一个实时应用程序,它通常在2-5毫秒内处理每个传入数据块,但有时会达到几十毫秒。我可以随心所欲地生成和重复传入数据的序列,并证明尖峰与特定的数据块无关。

我的猜测是,因为C++/Win32/MFC代码也使用可变长度的std:vectors和std::lists,所以它定期需要从操作系统获取内存,并定期等待操作系统进行一些垃圾收集或其他操作。我该如何检验这个猜想?有没有什么方法可以调整内存分配,使操作系统进程的影响更小?

上下文:将应用程序视为一个网络协议分析器,它实时收集数据并使其可用于检查。数据"捕获"总是在优先级最高的线程中运行。

测试的简单方法是不将数据放入任何结构中ie消除任何你怀疑可能是问题的地方。您可能还认为,延迟可能是操作系统为了给其他进程留出时间而断章取义地切换进程。

如果你将大量数据推送到一个向量上,使其不断增长,那么在调整向量大小时,你会经历周期性的延迟。在这种情况下,延迟可能会变得更长、频率更低。缓解这种情况的一种方法是使用deque,它按块分配数据,但放宽了所有数据都在连续内存中的要求。

另一种方法是创建一个后台线程来处理分配,前提是你知道它可以比消耗内存的进程更快地分配内存。你不能直接使用标准容器。但是,您可以通过分配恒定大小的vector块或简单地使用传统的动态数组来实现类似于deque的东西。这里的想法是,一旦你开始使用一个新的区块,你就向后台进程发出信号,要求分配一个新区块。

以上所有内容都是基于这样一个假设,即您需要存储所有传入的数据。如果你不需要那样做,就不要。在这种情况下,这表明你的症状与操作系统将你换掉有关。您可以研究更改线程的优先级。