底座和奇怪的问题:算法执行加法、乘法、不加区分除法性能? 计算机分析人士认为原则:加法、乘法和除法,以减少计算性能,然而,到什么程度降低?
写C使用程序30乘以一百万计算的数据来测试时间差,码,如以下:
#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#define N 1000000
void add(float x[], long n) {
float sum = 0;
for(long i = 0; i < n; i++)
sum += x[i];
}
void prod(float x[], long n) {
float sum = 1;
for(long i = 0; i < n; i++)
sum *= (x[i]);
}
void div(float x[], long n) {
for(long i = 0; i < n; i++) {
x[i] /= 3.0;
}
}
int main()
{
float x[N];
clock_t t1 = clock();
for(int i = 0; i < 50; i++)
add(x, N);
clock_t t2 = clock();
printf("百万数据加法用时:%f 秒\n", (double)(t2 - t1)/ CLOCKS_PER_SEC);
t1 = clock();
for(int i = 0; i < 50; i++)
prod(x, N);
t2 = clock();
printf("百万数据乘法用时:%f 秒\n", (double)(t2 - t1)/ CLOCKS_PER_SEC);
t1 = clock();
for(int i = 0; i < 50; i++)
div(x, N);
t2 = clock();
printf("百万数据除法用时:%f 秒\n", (double)(t2 - t1)/ CLOCKS_PER_SEC);
return 0;
}
结果例如以下:
百万数据加法用时:0.157051 秒
百万数据乘法用时:0.184712 秒
百万数据除法用时:0.161014 秒
-----------------------------------------
当加入数百万的数据与:0.156099 第二
乘法万个数据点与时间:0.184023 第二
当数以百万计的数据除以:0.159588 第二
这说明了什么问题?
应该说算法不再区分基本操作?