compression

    14熱度

    1回答

    我正在嘗試爲教育目的實施QM編碼。我的主要資源是數據壓縮手冊第5版第5.11章。這是我粗略實現編碼器的現在: def _encode_bit(self, bit): if bit == self._lps: self._code_lps() else: self._code_mps() def _code_mps(self): self._

    0熱度

    3回答

    是否有任何主流壓縮算法,例如snappy,zlib或bzip本地支持跨網絡流數據?例如,如果我必須發送一個壓縮的有效負載,那麼在發送消息之前,我是否必須手動預先確定有效負載的大小?或者是否有任何庫提供API來告知郵件是否完整,並給出x字節?

    3熱度

    3回答

    我已經編寫了幾個用於處理FASTA/FASTQ文件的腳本(例如fastx-length.pl),但希望使它們更通用,並且同時接受壓縮文件和未壓縮文件作爲命令行參數和標準輸入(以便腳本「只是工作「,當你扔在他們的隨機文件)。對於我來說,處理未壓縮和壓縮的文件(例如壓縮讀取文件,未壓縮的組裝基因組)是很常見的,並且像<(zcat file.fastq.gz)這樣的插槽會很快變得煩人。 下面是來自fas

    0熱度

    2回答

    我正在尋找大文本文件來測試從1kb到100mb的所有尺寸的壓縮和解壓縮。有人可以請參考我從某個鏈接下載它?

    1熱度

    1回答

    當前最小閾值文件大小需要爲1KB,以便在AWS Cloudfront中啓用Gzip壓縮。我想將壓縮的最小文件大小要求從1KB減少到200B。我怎樣才能配置相同?

    3熱度

    1回答

    按照「硅谷」電視劇中所展示的效率壓縮某些東西,是否真的有像weissmann得分那樣的東西?

    0熱度

    1回答

    因此,正如我發現要壓縮數據Gzip在2012年還在使用甚至更多。這是2017年,我們仍然在使用Gzip的大部分地方。爲什麼這樣?沒有更好的選擇嗎? 個人而言,我必須在從服務器嚮應用程序發送數據(JSON字符串)的同時減少有效負載,反之亦然。我看到有更好的壓縮,但它們需要更多的時間。我只是害怕我是否錯過了一些東西?或者Gzip仍然是最好的?

    0熱度

    1回答

    給定一個numpy數組,有沒有一個腳本可以寫在純粹的python中,它會返回壓縮比? 這是一個非常簡單,具體的問題,我似乎無法拿出一個好的解決方案,而無需手動使用文件系統。 請注意,使用壓縮文件本身與此問題無關。答案只需要與壓縮比值有關。

    0熱度

    1回答

    識別更多可壓縮數據集,這可能是這裏的問題的重複:Predict Huffman compression ratio without constructing the tree 所以基本上,我有兩個數據集具有相同的變量,但不同的概率概率分佈。現在,有沒有辦法通過查看變量分佈,我可以在某種程度上自信地說數據集在通過霍夫曼編碼實現後會獲得比另一個更高的壓縮比? 我遇到的解決方案之一是使用條件熵計算上限,

    0熱度

    1回答

    我想使用ZipArchiveMode壓縮幾個文件。這些文件位於不同的目錄中。 zipFile.CreateEntryFromFile(file, Path.GetFileName(file), compression); 我打電話給每個文件。 有沒有辦法在文件中保持文件夾的完整性,以便它解壓縮到正確的文件夾? 如果沒有,我還有其他壓縮文件的選項嗎? 謝謝