alpha-beta-pruning

    2熱度

    1回答

    我得到了以下問題。我已經實現了換位表,它似乎工作得很好,或者至少我看不到他們沒有工作。 此外,我想實施一些移動排序。 基本上,我首先搜索保存在我的換位表中的移動。出於某種原因,這根本不能改善搜索。要麼我沒有正確實施移動排序,要麼我的alpha-beta算法以及轉置表的實現是錯誤的。 爲了衡量性能,我計算了搜索期間訪問的節點數。我的移動排序實施完全沒有任何效果。 這裏是Java的代碼我想出了: pu

    0熱度

    1回答

    我正在用Java編寫一個minimax alpha beta算法。我最初做的是創建一個minimax算法。這個算法總是擊敗算法B,我也編碼了。現在我將Alpha beta修剪添加到了這個minimax算法,並且我的算法總是輸給算法B. Alpha beta修剪是否有可能使我的算法變得更糟?還是我編碼不正確? 而只是爲了我的好奇心;在一個完美的世界中,我已經正確實現了Alpha Beta,如果min

    0熱度

    1回答

    我最近實現了Minimax和Alpha Beta Pruning算法,我%100確定(autograder)我正確實現了它們。但是當我執行我的程序時,他們的行爲有所不同。我%99確定minimax和Alpha beta的最終狀態應該是相同的。我對嗎?他們可以在實現結果的路上有所不同嗎?因爲我們忽略了一些值,min將選擇哪個不會被max或vica選中。

    1熱度

    2回答

    蠻力本質上只是搜索每個可能的組合,但minimax如何不同? Minimax也搜索每個組合,然後返回最佳分數? 我明白,當我們使用alpha beta修剪時,我們會取出那些對我們的最小/最大值沒有任何影響的,但是這種情況在我們已經執行minimax之後發生,所以這會被認爲是蠻力嗎?也許我誤解了我到目前爲止所閱讀的內容,所以任何幫助都會很棒! 謝謝!

    0熱度

    2回答

    我試圖執行negamax爲一個簡單的遊戲,其中玩家交替添加一個或兩個運行總和。將總數增加到21的玩家獲勝。 我在這裏使用的僞代碼:https://en.wikipedia.org/wiki/Negamax#Negamax_base_algorithm 人類玩家先移動,以便計算機應該很容易通過增加使其總量一致,以0模數贏3 我不是做任何動態的移動生成。只需比較將運行總和加1的negamax得分與將運

    1熱度

    1回答

    在alpha beta算法中隨機選擇一個節點的孩子比按順序選擇它們有更好的機會獲得一個截斷? 這裏是僞代碼,我的加法標記爲***。 function alphabeta(node, depth, α, β, maximizingPlayer) if depth = 0 or node is a terminal node return the heuristic value

    -1熱度

    1回答

    想要在我的othello遊戲中模擬我的AI的下一步行動,但不是僅僅返回下一步,而是在原板上進行所有動作,而不是模擬克隆遊戲結束。 public class GameState implements Cloneable{ private Node[][] board; // Game board private int scorePlayer, scoreAI; // Player s

    1熱度

    1回答

    建立一個極小位置樹對於Connect4比賽,我需要這個的Alpha-Beta算法轉換成由Aske Plaat在他的MTD(F)算法解釋AlphaBetaWithMemory算法:https://people.csail.mit.edu/plaat/mtdf.html#abmem 所以,我需要一些提示關於如何構建可能移動的minimax樹板位置,以便能夠以與AlphaBetaWithMemory相同

    0熱度

    1回答

    正在爲Alphabeta修剪做一個遊戲樹,我已經使用svg創建了樹,但是現在我想在樹內添加可編輯文本,並且能夠在我的計算中使用輸入的值。就像使用我在計算中輸入的值一樣。 任何人都可以幫助我這個。 html, body { background: #EEE; } svg { background-color: #EEE; cursor: default; -web

    2熱度

    1回答

    我正在爲舊遊戲的北歐tafl家族編寫人工智能(project here,source file at issue here)。他們已經足夠接近國際象棋的知識,在這裏申請國際象棋。 (所討論的變體是在7x7棋盤上以徑向對稱的起始位置進行播放,白色從中間開始,黑色從邊緣開始。)我遇到了一個奇怪的問題,那就是我如何實施alpha-beta搜索:搜索到固定深度的結果,除了alpha-beta修剪之外沒有啓