agent-based-modeling

    1熱度

    1回答

    我在python中有一個(基於代理的)模擬。結果是隨機的。我想校準模擬,以最小化平方距離的總和。 有哪些python算法可以最小化隨機模擬?

    1熱度

    1回答

    我有一些自己環顧四周的烏龜。對於他們每個鄰居,他們保存了「輸出熱量」的值。具有最高值的貼片將獲得最高概率,並且最低值是最低概率。我希望烏龜移動到另一個補丁。移動應該取決於概率。 我的代碼看起來是這樣,但它不能正常工作像它應該: ask turtles-here[ let temp_ahead [(output-heat + 1)^ Freedom] of patch-at 0 1 let t

    1熱度

    1回答

    我已經創建了一個補丁自己的變量,每次代理登陸一個特定的補丁後,它會增加「1」。 它每下降一點也減少0.1。 到目前爲止的代碼看起來是這樣的 to go-predation-risk ask patch-here [ set predation-risk predation-risk + 1] end to deduct-predation-risk ask pa

    1熱度

    1回答

    我有一個agentset,其中所有龜的年齡/經驗都有不同的值。我想要做的是爲每隻烏龜找到更有經驗的烏龜,然後跟隨這些烏龜。不幸的是,我得到ifelse [ age-experience > my-own-age-experience ]行的以下錯誤: 這裏預期爲TRUE/FALSE,而不是列表或塊。 這裏是我的代碼: turtles-own [ age-experience m

    2熱度

    3回答

    如何製作其他清單的累積金額清單? 我想這樣的說法: ;;all temperatrue-values around the turtle saved in list set temperature_values (list [(output-heat + 1)^ Freedom] of neighbors) ;;build cumulative value of temperatures

    2熱度

    1回答

    對不起,如果我討厭你,但我的老師說這個代碼[1]不夠好,我應該使用代理集而不是個體值。 代碼[1](第一個代碼工作很不錯) let temp_ahead [(output-heat + 1)^ Freedom] of patch-ahead 1 let temp_right_ahead [(output-heat + 1)^ Freedom] of patch-right-and-ahead 4

    3熱度

    1回答

    Modelica中可以模擬多代理系統嗎?我正在談論一個用Java編寫的MASON系統。這將是多麼容易或困難? 據我所知,Modelica不是一種典型的編程語言,所以它會特別有用,或者modelica語言的基本設計會帶來什麼障礙?更重要的是,我們將如何對基於代理的建模中常見的「消息傳遞」系統建模?

    1熱度

    1回答

    有什麼辦法可以動態創建海龜? 每當我嘗試在「go」過程中創建新的隨機烏龜時,出現一個錯誤,我不能在烏龜環境中使用crt。我需要能夠「動態地」添加更多的海龜,創造出大量看不見的海龜看起來對我來說是一個骯髒的解決方案,並且它會顯着增加模型的大小。 任何想法?

    2熱度

    1回答

    目前,我正在研究一個關於社交網絡中成功創新擴散的基於代理的模型。到目前爲止,我是基於代理的建模和編程的新手。 其主要思想是在農民中對社會學習進行建模,因此代理商採用創新的決定主要取決於他的個人網絡,這意味着如果他的聯繫良好並且他的鄰居正在成功使用創新,他將更有可能如果他遠程位於網絡中,則採用這種方法。 除了關於社會學習的網絡相關爭論之外,我想實施時間維度,例如,代理人的鄰居越長地成功使用創新,代理

    0熱度

    1回答

    我對Java非常新穎& AnyLogic所以請在我的水平上爲這個。 代理是否有辦法從另一個代理獲取變量值? 在這種情況下,代理將是相同的類型。因此,它們都具有相同的變量,但由於它是隨機初始值而非參數的變量,因此這些值不一樣。 代理最初也通過Small-World連接進行連接,並且這些連接在運行期間不會被更改。 例如,事件中發生的代理如何從另一個代理收集變量值(例如,代理i獲得代理j的變量值X)。爲