aggregator

    0熱度

    1回答

    我們有其中一個大的輸入文件被衝進許多單獨的文件,然後彙總到一起使用Spring集成匯聚一Spring集成項目。 管道中有許多過濾器會過濾掉不需要的單個文件。我們跟蹤爲每個相關輸入文件過濾的文件數量。我們的@ReleaseStrategy檢查是否收到了單個文件的數量減去過濾的單個文件的數量。如果它擊中我們的ReleaseStrategy之前通過過濾來處理的最後一個單獨的文件 會發生什麼? Relea

    2熱度

    2回答

    我想了解聚合器的基礎知識。下面是使用情況下,我想實現:從隊列 1)讀消息(訂單詳細信息)。 <?xml version="1.0" encoding="UTF-8"?> <order xmlns="http://www.example.org/orders"> <orderItem> <isbn>12333454443</isbn> <quantity>4</qua

    1熱度

    1回答

    我有用於並行讀取員工,地址和聯繫人文件的用例,並將其轉換爲beanIO對象併合並beanIO對象以生成完整的employeeDetails對象。 的Emp文件: 1 Foo Engineer 2 Bar AssistantEngineer 的Emp聯繫人文件: 1 8912345678 [email protected] 2 7812345678 [email protected] 的

    0熱度

    1回答

    我正在使用彈簧集成,我使用的是默認關聯策略,也就是我沒有明確地寫關聯策略的代碼,一切正常,直到分離器,分離器之後有一個服務激活器,它執行一些處理,然後放置該消息放入聚合器必須從中選擇它的通道中,但聚合器不會選擇它,所以我放置了一個攔截器來查明發生了什麼,並且發現在將消息放入聚合器通道之前,聚合相關頭文件像相關ID等存在,但一旦其放入通道的標題丟失。現在我不知道爲什麼聚合器或通道之前,是失去了標題。

    0熱度

    2回答

    我使用的是Apache Camel並獲取一個大文件以進行輸入,我必須逐行處理。內容已經排序,我必須使用相同的關聯關鍵字聚合所有連續的行。如果相關鍵發生變化,則必須完成前一個聚合。如果文件結束,最後的聚合也已完成。 我有一些限制: - 由於傳入文件相當大,我們希望以流式處理它。 - 因爲結果賦予同步端點,所以我不想使用超時完成謂詞。否則,我將失去調節數據源消耗速度的背壓,並且交換將積累在Aggreg

    -2熱度

    1回答

    我們正在考慮使用FluentD將代理& dhcp服務器的Blue Coat日誌事件發送到彈性服務器。其中一個關鍵要求是儘快標出異常值&異常。 對於這樣的要求,使用FluentD Aggregator從多個(可能是數百個)FluentD收集器代理接收事件是否合理? 或者,讓FluentD代理將事件發送到寫入Elastic的Kafka集羣會更好嗎? 如果我能得到關於何時使用FluentD Aggreg

    2熱度

    1回答

    我們使用分隔符來遍歷壓縮文件中的文件,並且還使用了一個自定義聚合器,它爲我們提供了主體壓縮文件中的兩個文件的主體列表。現在,在分割之後,我想提取在聚合塊處理過程中發生在聚合器結果上的標頭集。但是,聚合器的輸出似乎丟失了,在拆分塊之後我沒有收到任何迴應。 我相信我沒有得到這個基礎知識。如果有人可以在這裏幫助,將不勝感激。 <route id="main-route"> <split st

    0熱度

    1回答

    我分裂一些Java對象,然後聚合。我有點困惑這個完成策略如何與駱駝(2.15.2)。我正在使用完成大小和完成超時。如果我理解正確,完成超時並沒有太大的影響。因爲,這裏沒有太多的等待。 總而言之,我有3000多個對象。但是,似乎只有它的一部分被彙總。但是,如果我改變完成規模值,情況會發生變化。如果大小爲100,則它大約爲800,如果它是200,則它總計大約爲1600.但是,我不知道事物的大小,因此不

    0熱度

    1回答

    我想根據我的過濾規則對文檔數量進行彙總和計數。 我看着從他們的網站的API:https://www.elastic.co/guide/en/elasticsearch/reference/current/search-aggregations-bucket-filters-aggregation.html ,並與該出來了: { "size": 0, "aggregations": {

    1熱度

    1回答

    我想編寫一個駱駝批: 過程的特定目錄內,每個文件中的所有文件: 驗證XML與XSD架構 和解組不同的部分和處理數據 沒有停止對異常 如果發生至少一個錯誤,將失敗dirrectory末,移動到完成,否則 個 的困難,我遇到: 文件組件允許自動移動上完成文件/失敗目錄,但只要你使用分流/聚合器,該文件是 總是在做,唐遷甚至不會等待聚合完成。 管理的例外是不直觀 斯普利特和aggretors是噩夢並沒有