replication

    1熱度

    1回答

    我需要在本地postgresql實例和雲postgresql實例之間建立實時同步過程。請讓我知道我可以通過哪些選項來實現它。 我必須使用任何特定的工具,或者可以通過複製來管理它。 請從他們的網頁指點

    1熱度

    1回答

    我試圖通過廣域網實現CouchDB複製。當我的源&目標服務器在同一網絡上時,我可以做同樣的事情。但是當它們都在不同的網絡中時,它就會失敗。 我可以從CMD執行ping命令,也可以通過源服務器的curl命令ping目標CouchDB。但複製失敗。 我需要做任何額外的配置嗎? 提示:這兩種機器具有Windows Server 2012 R2 &的CouchDB 2.0安裝

    0熱度

    1回答

    我剛搬出RDS並設置我自己的主/從MySQL複製。 複製工作正常,但我的從屬節點正在接受更改,與RDS發生的不同(服務器生成錯誤,指出服務器處於只讀模式)。 我在my.cnf上激活配置read_only = ON(在從屬設備上)... 但即使服務重新啓動後,服務器也會繼續接受更改。 我在做什麼錯?我希望服務器只接受來自複製連接的更改......

    1熱度

    1回答

    我是cassandra的新手。 cassandra中的確切複製因子是什麼意思? 例如, 我有3個節點羣集(node1,node2,node3),如果我使用複製因子1創建密鑰空間,並通過node1插入數據,我可以從其他2個節點讀取數據嗎? 或者它會將數據存儲在node1中。其他2個節點的數據是否可用於讀/寫操作?

    1熱度

    1回答

    HDFS-site.xml中: 配置dfs.replication值3 假定i設置一個特定的文件的複製,以2: ./bin/ hadoop的DFS -setrep -w 2 /path/to/file.txt 當NameNode收到聽到從數據節點tbeat, 威爾NameNode會考慮爲指定的文件 路徑/到/ file.txt的是在複製按照配置的複製或沒有? 如果不是,它將如何?

    0熱度

    3回答

    我正在運行一個項目。我的目標是設計一個Kafka集羣。防止當一臺機器死亡時,卡夫卡的數據全部消失。我想知道是否可以在不同的機器上設置卡夫卡複製以備份?

    0熱度

    1回答

    我是新來的彈性搜索,並試圖瞭解它的搜索過程中使用分片複製,從彈性搜索的文檔中,我發現如果主碎片發生故障,使用碎片複製來處理容錯,任何副本碎片可以作爲主碎片。 但文件還提到,它有助於負載平衡時,有沉重的搜索流量和 也是有可能的副本碎片是如何選擇服務搜索有多個副本在這種情況下,每個碎片? 是否就像我在其他節點上有一個主分片和3個副本,那麼總共4個副本, 然後當多個搜索請求進入彈性搜索時,每個搜索都將被

    1熱度

    1回答

    區別,我目前正在探索CouchDB的複製,並試圖找出max_replication_retry_count和retries_per_request配置選項之間的差異[複製]配置文件的部分。 基本上我想配置本地couchdb連續複製到遠程實例,永遠不會停止複製嘗試,考慮到可能連續的離線時間(幾天甚至幾周)。所以,我想要進行無限次的複製嘗試,最大重試間隔爲5分鐘左右。我可以這樣做嗎?我是否需要更改默認

    0熱度

    1回答

    在一個負載平衡的環境中,我有獨立的Java線程(爲了簡單起見,基本上通過一個彈簧引導jar讓我們稱之爲Project 1),它讀取一些元數據並更新某個位置的lucene索引。 然後有一個實際的Web應用程序(項目2),通過它我想通過這些指標來查詢(其另一個項目1創造),但是索引文件,有哪些可用的選項: 複製索引文件定期到Web應用程序的lucene,這是不可能的,因爲我們可能不得不重新啓動我信任的

    0熱度

    1回答

    我想將所有成員升級到3.4,但是,如果出現任何問題,我希望能夠切換回2.6.8。爲了做到這一點,我希望爲現有副本集(2.6.8版)添加一個新的成員3.0或3.4成員,複製數據,然後將其分解出來,並在3.4上創建一個單獨的副本集。在分解了同步的3.x成員之後,我會添加更多的3.x成員並切換我的應用程序以使用新的副本集。如果應用程序中斷,我打算切換回舊的副本集。我讀到,副本集成員可以在不同的版本。我無