2016-04-19 82 views
0

我最近正在學習人工神經網絡,它們的用處讓我很感興趣。所以我試圖做一個可以玩簡單遊戲的遊戲(2048年,之前做過很多次,所以它似乎是一個開始的好地方)。但是,我發現了兩個問題。神經網絡的替代品

首先是我編程的方式,沒有訓練數據集。這似乎可以解決,但我還沒有找到辦法。

二是神經網絡,似乎只能夠最小化錯誤,並與此遊戲,你正試圖最大限度地得分。在任何給定的時間,沒有最佳的神經網絡設置來檢查。

我喜歡創造人工智能的能力,讓它在沒有我直接教授的情況下學習最佳策略,這就是爲什麼我決定首先嚐試這種格式。我的問題是,是否有一種NN能夠克服這些短暫的崩潰,或者是一種沒有這些問題的編程方式,或者我只需切換到不同的算法/程序。如果我確實需要切換,請給出關於切換到什麼的建議。

謝謝你的任何輸入

而且,如果這屬於堆疊交換不同的地方,請說得清

+0

1)您可以輕鬆地玩遊戲並保存遊戲狀態創建自己的數據集。我建議你實施一個minimax/expectimax代理並記錄他們的遊戲進程。2)神經網絡是一個迴歸器/分類器,而不是那些必須最小化的東西。獎金)我已經在我自己之前實現了。但是,expectimax迄今爲止表現最好。 – jorgenkg

+0

謝謝,我從來沒有聽說過expectimax,我必須去看看。 – Drickken

回答

1

首先,簡要回答你直接的問題。然而,閱讀後,我的建議:)

第一個是我的方式編程它,沒有訓練數據集。這似乎可以解決,但我還沒有找到辦法。

我不認爲一開始就沒有訓練數據集會妨礙你有訓練集的能力。我想你可以用另一個程序來自己製作訓練集,而不需要你的神經網絡來玩遊戲。但是,這可能不是你想要的。

第二個是神經網絡,只是看起來能夠最大限度地減少錯誤,並與此遊戲,你試圖最大限度地得分。在任何給定的時間,沒有最佳的神經網絡設置來檢查。

這也不是問題,因爲你可以define your cost function基本上讓更高的分數有更少的錯誤。也許你可以確定理論最大分數爲「0誤差」,得分0爲100的誤差,然後創建一個適合該模型的成本函數。

還有什麼?

Reinforcement learning」在我看來似乎與2048最接近,但是就像所有AI一樣,只有當你嘗試並且有證據支持它時,你纔會知道!看看它,看看它是你在找什麼。以下是該鏈接的簡短引用。

強化學習之處在於正確的輸入標準監督學習不同/輸出對從不提出...