Я хотел бы измерить системное время, необходимое для выполнения некоторого кода. . Я знаю, что для этого я бы поместил указанный код между двумя вызовами getrusage(), но я получаю некоторые неожиданные результаты...
#include <sys/time.h>
#include <sys/resource.h>
#include <unistd.h>
#include <stdio.h>
int main() {
struct rusage usage;
struct timeval start, end;
int i, j, k = 0;
getrusage(RUSAGE_SELF, &usage);
start = usage.ru_stime;
for (i = 0; i < 10000; i++) {
/* Double loop for more interesting results. */
for (j = 0; j < 10000; j++) {
k += 20;
}
}
getrusage(RUSAGE_SELF, &usage);
end = usage.ru_stime;
printf("Started at: %ld.%lds\n", start.tv_sec, start.tv_usec);
printf("Ended at: %ld.%lds\n", end.tv_sec, end.tv_usec);
return 0;
}
Я бы надеялся, что это даст два разных числа, но, увы! После того, как мой компьютер задумался на секунду или две, вот результат:
Started at: 0.1999s
Ended at: 0.1999s
Я не использую getrusage(), верно? Почему эти два числа не должны быть разными? Если я в корне не прав, есть ли другой способ использовать getrusage() для измерения системного времени некоторого исходного кода? Спасибо за чтение.