cluster-computing

    1熱度

    1回答

    我有三臺機器位於不同的網絡: 作爲主 作爲節點-1 作爲節點-2 在如-master我將WildFly作爲域主機主機,兩個節點將WildFly作爲域主機 - 從機,每個都在全功能服務器組中啓動一個實例。在as-master Web控制檯中,我可以看到full-ha配置文件運行時中的兩個節點,如果我部署WAR,它將在兩個節點上正確啓動。 現在,我試圖實現的是兩個WAR實例之間的消息傳遞,即從as-n

    2熱度

    1回答

    我在羣集上運行tensorflow。我安裝了CUDA版本。它工作沒有任何問題。要使用GPU,我必須請求資源。現在,我只想在CPU上運行而不請求GPU資源。 On import tensorflow as tf, I get the error: ImportError: /home/.pyenv/versions/2.7.13/lib/python2.7/site-packages/tensor

    1熱度

    2回答

    我在CentOS 7上創建了一個由2個節點和一個主節點組成的Kubernetes集羣。當我使用kubectl get nodes時,它列出了節點,一切似乎都正常。 我的問題是:集羣會自動平衡節點之間的資源嗎?我的意思是,假設我在主節點(具有512MB內存)上使用WordPress安裝了一個帶有WordPress的nginx Web服務器,如果主服務器上的內存使用率幾乎已滿,它是否會根據其需要自動依

    -1熱度

    1回答

    我一直在閱讀和處理由博士伯納德納爾博士寫的書中的問題。我只想知道這個問題是可行的,還是忘記提及一些細節? 不尋找任何人來解決它。的問題如下: 實現以下幾個簡單的聚類算法。當用戶輸入 作爲新點時,檢查它是否位於任何羣集內。如果是這樣,請用羣集號標記它。如果它不落入任何現有羣集,則以新點爲中心和半徑r開始一個新羣集,該點由用戶指定,並且對於所有羣集都是相同的。 這是整個問題。

    3熱度

    4回答

    目前,我已經在K8s服務中使用K8s API Pod來連接到K8s Redis服務,並使用它自己的K8s Pod。問題是,我使用的是NodePort,這意味着BOTH暴露給公衆。我只希望API能夠訪問公衆。問題是,如果我使Redis服務不公開,則API無法看到它。有沒有辦法連接兩個服務而不向公衆公開? 這是我的API服務YAML: apiVersion: v1 kind: Service me

    0熱度

    1回答

    我有一個基於hazelcast的應用程序,它將一組特定的ips和端口傳遞給hazelcast。 如果其中一個套接字屬於具有不同名稱的羣集,我該如何使hazelcast失敗? 作爲例子,我希望這些設置快速失敗: node1 has ip1, is configured to form a cluster called "hello" with ip2 node2 has ip2, is confi

    0熱度

    1回答

    我想就如何在HA中使用帶RED HAT Linux OS的虛擬機的PHP應用程序設置服務器Web提供一些建議。 這個想法是讓兩個虛擬服務器Web共享一個共同的文檔根目錄,使用NFS或iSCSI加上其他兩個複製數據的MariaDB數據庫。 我有一些文檔,無論如何,我想知道你的意見,特別是如何應對數據庫的複製必須是多餘的。 非常感謝 裏卡多

    1熱度

    1回答

    我正在使用python 2.7與spark獨立羣集。 當我在運行python腳本的同一臺機器上啓動master時。它工作順利。 當我在遠程計算機上啓動主服務器並嘗試啓動本地計算機上的spark上下文以訪問遠程spark主服務器時。沒有任何反應,我得到一個按摩,說任務沒有得到任何資源。 當我訪問主人的用戶界面。我看到這份工作,但沒有任何反應,它只是在那裏。 如何通過本地python腳本訪問遠程spa

    -2熱度

    1回答

    我已經建立了一個具有1個頭節點和3個計算節點的小型集羣。我的客戶機是用於提交工作簿卸載作業的Windows 2016 Server。我的問題 - HPC非常緩慢;如果我在本地計算機上運行作業,則運行速度比HPC羣集上的速度快10倍左右!我節點的配置如下: Headnode:2vCPU和8GB內存 計算節點:1vCPU和4GB內存的每個 我有一個可疑的問題可能是與節點之間的通信網絡。或者完全不同的東

    1熱度

    1回答

    我正在構建一個運行Apache Spark的Mesos集羣。我更喜歡爲我的Spark執行者使用Docker容器,我可以使用spark-submit的客戶端模式(使用--master mesos://mesosmaster:5050和--conf spark.mesos.executor.docker.image=myimage:latest)執行此操作,但我希望能夠在集羣模式下執行相同的操作。 我