根據維基百科(http://en.wikipedia.org/wiki/Binary_GCD_algorithm),我試圖爲bignums編寫二進制GCD(最多5000位數字)。二進制GCD - 太慢算法
我的GCD本身看起來像這樣:
bitset<N> gcd(bitset<N> u, bitset<N> v) {
bitset<N> one (string("1"));
bitset<N> zero (string("0"));
int shift;
if (u == 0) return v;
if (v == 0) return u;
for (shift = 0; ((u | v) & one) == zero; ++shift) {
u >>= 1;
v >>= 1;
}
while ((u & one) == zero) u >>= 1;
do {
while ((v & one) == zero) v >>= 1;
if (u.to_string() > v.to_string()) {
bitset<N> t = v;
v = u;
u = t;
}
bitsetSubtract(v,u);
} while (v != 0);
return u << shift;
}
我還使用自己的bitset減法功能:
void bitsetSubtract(bitset<N> &x, const bitset<N> &y) {
bool borrow = false;
for (int i = 0; i < N; i++) {
if (borrow) {
if (x[i]) {
x[i] = y[i];
borrow = y[i];
} else {
x[i] = !y[i];
borrow = true;
}
} else {
if (x[i]) {
x[i] = !y[i];
borrow = false;
} else {
x[i] = y[i];
borrow = y[i];
}
}
}
}
我沒有看到改善這個算法的速度(二進制任何地方GCD本身速度很快),但我得到的反饋是我的程序太慢了。
您是否嘗試通過分析查看瓶頸位置? –
歡迎來到Stack Overflow,程序員的**問題**和**答案**網站!你有問題嗎? –