scientific-computing

    3熱度

    2回答

    乾杯賈斯珀報告專家, 我有點新的賈斯珀報告,所以謝謝任何幫助。 我們正在研究使用Jasper Reports Server作爲我們的主要工具,爲我們的客戶提供他們所需的報告功能。我們是一家Java商店,但希望我們的客戶主要與JasperReports服務器進行交互以報告需求(而不是爲此編寫自定義應用程序)。 我們有要求顯示BLOB字段中包含的科學數據(信號跟蹤數據)(這是一些標準格式,但不是衆所周

    0熱度

    1回答

    爲了清楚的目的而列出的明文數據我已創建包含數據的格式的一個例子的要旨我指的是: https://gist.github.com/TestAcc7777/5823760 經過一些其他不相關的數據,輸出文件包含許多這些表格塊,一個接一個地排列,並且每次都重複標題部分。每個標題實例最多有8組讀數,它們一起組成一個塊。標題中數量的組織反映了後續讀數值的組織。 鑑於這一點,我需要提取標題中給出的一些數量的值

    1熱度

    2回答

    在一個Linux發行版(ubuntu)上構建python包(numpy,scipy,matplotlib,h5py,...)並從另一個發行版(centos )? 我在問這是因爲我們的計算集羣有centos機器,而我的電腦是Ubuntu的。

    0熱度

    1回答

    由於磁盤速度,pci速度(gpgpu)或其他瓶頸的限制,我正在尋找適用於設計算法的規則,因爲數據訪問速度很慢。 另外,如何管理應用程序的內存超過gpgpu內存的gpgpu程序?

    4熱度

    2回答

    是否可以在Octave中使用arrayfun中的「if」? a = [ 1 2; 3 4]; arrayfun(@(x) if x>=2 1 else 0 end, a) 而且倍頻抱怨: >>> arrayfun(@(x) if x>=2 1 else 0 end, a) ^ 是,如果條款允許arrayfun?

    2熱度

    2回答

    對於提出以前多次提出的問題,我表示抱歉。但是經過多次搜索之後,我意識到我可能會在C/C++中處理FPE與在Fortran中處理它們的方式之間產生根本的誤解。 在Fortran(確切地說是GNU fortran)中,如果想捕獲一個浮點異常(例如使用NAN),編譯器標誌-ffpe-trap = invalid會執行這個技巧。一旦違規語句被執行,就會引發浮點異常。但是,在C(GNU gcc)中,似乎並不

    2熱度

    2回答

    我正在使用HDF5 C++ API。我有一個程序偶爾需要寫大於64 kB的屬性。當試圖編寫如此大的屬性時,它會拋出H5 :: AttributeIException。 HDF5文檔提到了兩種存儲大型屬性的方法。第一種選擇是密集存儲(自1.8.8版起可用,我認爲),而第二種選擇是將屬性中的數據卸載到其他數據集,並將該數據集的引用存儲在屬性中。第二個選項應該是向後兼容的,而第一個選項不兼容1.8.8之

    7熱度

    1回答

    作爲一名生物學本科生,我經常編寫python軟件來做一些數據分析。一般結構始終是: 有一些數據上到負載,執行分析(統計,集羣...),然後可視化結果。 有時候對於同一個實驗中,數據可以有不同的格式,你可以有不同的方式來對其進行分析和不同的可視化可能的可能與否取決於執行的分析。 我在努力尋找一個通用的「Python化」和麪向對象的方式,以明確和容易擴展。應該很容易添加新類型的動作或對已有動作進行輕微

    0熱度

    1回答

    我正在爲科學數據分析編寫應用程序,我想知道什麼是構建代碼以避免(或解決)循環導入問題的最佳方法。目前我正在使用面向對象和程序編程的混合。 Other questions解決了這個問題,但採用了更抽象的方式。在這裏,我正在尋找一個在更具體的環境下最優化的解決方案。 我有一個類Container定義在DataLib.py其數據在列表和/或數組。所有方法和支持功能DataLib.py都相當大(約1000

    0熱度

    1回答

    我試圖在MATLAB運行LU分解,這樣它將使用GPU。 根據NVIDIA/MATLAB文檔,LU是應該由CUDA支持(參見,例如http://www.nvidia.com/content/GTC-2010/pdfs/2267_GTC2010.pdf)。 現在,我比較CPU和GPU之間的速度,雖然GPU的確是更快的矩陣乘法和FFT這似乎給相當多的LU分解,這對我來說很重要了相同的結果。 我已經嘗試了