Я использую clock() для измерения количества процессорного времени для моего алгоритма.
Код выглядит так:
start_time = clock();
//code to be timed
.
end_time = clock();
elapsed_time = (end_time - start_time)*1000 / CLOCKS_PER_SEC;
printf("Time taken %d seconds %d milliseconds\n", elapsed_time/1000, elapsed_time%1000 );
Но в результате я получаю «0 секунд -175 миллисекунд». Я не могу понять, почему. И кажется, что «1 секунда 349 миллисекунд» действительно может занять 10 минут или более по прошествии времени. Это обычное дело?