C++如何在Linux中使计时器准确

C++ How to make timer accurate in Linux

本文关键字:计时器 Linux C++      更新时间:2023-10-16

考虑以下代码:

#include <iostream>
#include <vector>
#include <functional>
#include <map>
#include <atomic>
#include <memory>
#include <chrono>
#include <thread>
#include <boost/asio.hpp>
#include <boost/thread.hpp>
#include <boost/asio/high_resolution_timer.hpp>
static const uint32_t FREQUENCY = 5000; // Hz
static const uint32_t MKSEC_IN_SEC = 1000000;
std::chrono::microseconds timeout(MKSEC_IN_SEC / FREQUENCY);
boost::asio::io_service ioservice;
boost::asio::high_resolution_timer timer(ioservice);
static std::chrono::system_clock::time_point lastCallTime = std::chrono::high_resolution_clock::now();
static uint64_t deviationSum = 0;
static uint64_t deviationMin = 100000000;
static uint64_t deviationMax = 0;
static uint32_t counter = 0;
void timerCallback(const boost::system::error_code &err) {
auto actualTimeout = std::chrono::high_resolution_clock::now() - lastCallTime;
std::chrono::microseconds actualTimeoutMkSec = std::chrono::duration_cast<std::chrono::microseconds>(actualTimeout);
long timeoutDeviation = actualTimeoutMkSec.count() - timeout.count();
deviationSum += abs(timeoutDeviation);
if(abs(timeoutDeviation) > deviationMax) {
deviationMax = abs(timeoutDeviation);
} else if(abs(timeoutDeviation) < deviationMin) {
deviationMin = abs(timeoutDeviation);
}
++counter;
//std::cout << "Actual timeout: " << actualTimeoutMkSec.count() << "ttDeviation: " << timeoutDeviation << "ttCounter: " << counter << std::endl;
timer.expires_from_now(timeout);
timer.async_wait(timerCallback);
lastCallTime = std::chrono::high_resolution_clock::now();
}
using namespace std::chrono_literals;
int main() {
std::cout << "Frequency: " << FREQUENCY << " Hz" << std::endl;
std::cout << "Callback should be called each: " << timeout.count() << " mkSec" << std::endl;
std::cout << std::endl;
ioservice.reset();
timer.expires_from_now(timeout);
timer.async_wait(timerCallback);
lastCallTime = std::chrono::high_resolution_clock::now();
auto thread = new std::thread([&] { ioservice.run(); });
std::this_thread::sleep_for(1s);
std::cout << std::endl << "Messages posted: " << counter << std::endl;
std::cout << "Frequency deviation: " << FREQUENCY - counter << std::endl;
std::cout << "Min timeout deviation: " << deviationMin << std::endl;
std::cout << "Max timeout deviation: " << deviationMax << std::endl;
std::cout << "Avg timeout deviation: " << deviationSum / counter << std::endl;
return 0;
}

它运行定时器以指定的频率周期性地调用timerCallback(..)。在本例中,回调必须每秒调用5000次。人们可以玩频率游戏,并看到实际(测量的)呼叫频率与期望的不同。事实上,频率越高,偏差就越大。我用不同的频率进行了一些测量,总结如下:https://docs.google.com/spreadsheets/d/1SQtg2slNv-9VPdgS0RD4yKRnyDK1ijKrjVz7BBMSg24/edit?usp=sharing

当所需频率为10000Hz时,系统会错过10%(~1000)的呼叫。当所需频率为100000Hz时,系统会错过40%(~40000)的呼叫。

问题:在Linux\C++环境中有可能实现更好的准确性吗?如何我需要它在频率为500000Hz 的情况下工作,没有显著偏差

第页。S.我的第一个想法是,它是timerCallback(..)方法本身造成延迟的原因。我测量了它。它需要不到1微秒的稳定执行时间。因此,它不会影响过程。

我自己没有这个问题的经验,但我想(正如参考文献所解释的)操作系统的调度程序会以某种方式干扰您的回调。所以,您可以尝试使用实时调度程序,并尝试将任务的优先级更改为更高的优先级。

希望这能给你找到答案的方向。

计划程序:http://gumstix.8.x6.nabble.com/High-resolution-periodic-task-on-overo-td4968642.html

优先级:https://linux.die.net/man/3/setpriority

如果您需要实现每两微秒一次调用,最好附加到绝对时间位置,不要考虑每个请求所需的时间。。。。尽管您遇到了这样的问题,即每个时隙所需的处理可能比执行所需的时间更需要cpu。

如果你有一个多核cpu,我会在每个核心之间划分时间段(以多线程的方式),使每个核心的时间段更长,所以假设你在四核cpu中有自己的需求,那么你可以允许每个线程每8usec执行1 cal,这可能更实惠。在这种情况下,您使用绝对计时器(一个绝对计时器是一个等待,直到墙上的时钟滴答作响一个特定的绝对时间,而不是从您调用它的时间延迟),并将偏移它们一个等于2usec延迟的线程数的量,在这种情况(4个内核)下,您将在时间T启动线程#1,在时间T+2usec启动线程#2,在时间T+4usec启动螺纹#3。。。以及线程#N在时间T+2*(N-1)usec。然后,每个线程将在时间oldT+2usec重新启动自己,而不是执行某种nsleep(3)调用。这不会累积延迟调用的处理时间,因为这很可能是您正在经历的情况。pthread库计时器都是绝对时间计时器,因此您可以使用它们。我认为这是你能够达到如此高规格的唯一方法(并准备看看电池会受到什么影响,假设你在安卓环境中)

注释

在这种方法中,外部总线可能是一个瓶颈,因此即使您使其工作,也可能最好将多台机器与NTP同步(这可以以实际GBit链路的速度达到usec级别),并使用并行运行的不同处理器。由于你没有描述任何你必须如此密集地重复的过程,我无法为这个问题提供更多帮助。