为什么我的程序在完全循环8192个元素时会变慢?
以下是相关程序的摘录。矩阵img[][]
的大小为SIZE×SIZE,并在以下位置初始化:
img[j][i] = 2 * j + i
然后,你创建一个矩阵res[][]
,这里的每个字段都是img矩阵中它周围9个字段的平均值。为简单起见,边框保留为0。
for(i=1;i<SIZE-1;i++) for(j=1;j<SIZE-1;j++) { res[j][i]=0; for(k=-1;k<2;k++) for(l=-1;l<2;l++) res[j][i] += img[j+l][i+k]; res[j][i] /= 9;}
这就是该计划的全部内容。为了完整起见,以下是之前的内容。没有代码。如您所见,它只是初始化。
#define SIZE 8192float img[SIZE][SIZE]; // input imagefloat res[SIZE][SIZE]; //result of mean filterint i,j,k,l;for(i=0;i<SIZE;i++) for(j=0;j<SIZE;j++) img[j][i] = (2*j+i)%8196;
基本上,当SIZE是2048的倍数时,此程序很慢,例如执行时间:
SIZE = 8191: 3.44 secs SIZE = 8192: 7.20 secs SIZE = 8193: 3.18 secs
编译器是GCC。据我所知,这是因为内存管理,但我对这个主题并不太了解,这就是我在这里问的原因。
另外如何解决这个问题会很好,但如果有人能解释这些执行时间,我已经足够开心了。
我已经知道malloc / free了,但问题不在于使用的内存量,它只是执行时间,所以我不知道这会有多大帮助。
开心每一天1111