我的代碼中有一個小問題,用於從一系列數字中找到最小值。當我初始化min = 0
時,最小值變爲0.但是當我沒有初始化min
時,答案是正確的!如何正確初始化「min」變量?
爲什麼會發生這種情況? Xcode告訴我我應該初始化min
變量。
int a[20] = {0};
int max = 0;
int min ;
int sum = 0;
srand((unsigned)time(NULL));
for (int i = 1; i <= 20; i++) {
a[i] = 100 + rand()%(200 - 100 + 1);
if (max < a[i]) {
max = a[i];
}
printf("%d,%d\n",a[i],i);
if (min > a[i]) {
min = a[i];
}
sum += a[i];
}
printf("最大值:%d\n",max);
printf("最小值:%d\n",min);
printf("平均值:%d\n",sum/20);
你認爲'if(min> a [i])'是做什麼的?只需從'limits.h'初始化'min'到'INT_MAX',一切都可以正常工作。 –