原题目:
计算1+2+3+·······+n (1<=n<=1,000,000,000)
将1,000,000,000作为下面两个程序的输入
#include <iostream>
using namespace std;
int main(int argc, char *argv[]) {
long n; //问题在这里
long long sum=0;
cin>>n;
sum=(1+n)*n/2;
cout<<sum;
return 0;
}
结果是错的,出现的结果是 -243309312
#include <iostream>
using namespace std;
int main(int argc, char *argv[]) {
long long n; //问题在这里
long long sum=0;
cin>>n;
sum=(1+n)*n/2;
cout<<sum;
return 0;
}
结果是对的,结果是 500000000500000000
我没有用累加而直接用的求和公式,因为累加会超时。
注释的那个地方,我有个问题是用long n为什么不可以?
我查了一下 long类型的取的最大值要大于1,000,000,000,输入这个数并没有超范围,为什么计算出来放在sum里面后就不对呢?
我的一点想法是:在计算过程中(看好是计算过程中)数值太大以至于不能存放而出错么?
就像这个 (1+1000000000)*1000000000/2 这个东西太大???
小白求解,大佬帮忙!!