data-munging

    0熱度

    2回答

    我有一個記事本文件,該文本例如: *Given* I get an user ID from XXX *And* I set header "Authorization" with value "invalid_token" *When* I send a POST request to api/endpoint/"documentlibraryID"/"identity_id"/root/"

    1熱度

    3回答

    我有數據位數的數據從https://drive.google.com/file/d/0B9YMMvghK2ytSXI4RFo0clNLc28/view 基本上〜60萬行 它已經失蹤了一個價值的鑽石數據集的缺失數據。我想與特定的顏色 summary(BigDiamonds) ## X1 carat cut color ## Min. : 1 Min. :0.200 Len

    0熱度

    1回答

    我有一個PDF文本層工作中Elegently重新定位值,並有一些小的修改,使... 我產生的整潔數據框中有一個是關閉一個或兩個數據值一排。我有不正確定位值的「座標」(由其他變量的組合定義),我有他們應該實際去的位置。我只是需要從A移動數據值B和篩選出對應於A.例如該行: 更改此: data.frame(A = 1:3, B = 1:3, C = c("Oops wron

    0熱度

    3回答

    請隨意修改標題,但我很難解釋並因此搜索。 var booking = [ { x: "1", y: "2", days: [ { hours: 8 }, ] }, {...} ] var hoursBooked = [8, 2, 4, 8, 2, 8, 3, 4]; // this is what I wa

    -1熱度

    1回答

    尋找有關執行以下操作的最佳方法的建議。最好在python,javascript或excel中。數據是CSV格式(雖然我刪除了下面的逗號)。我是一個小白菜;我應該可以做到這一點,但我認爲有這樣一種優雅的方式來做這樣的事情,因爲它是這樣一個基本的操作。 Direction Name Trial Amount + Matthew 1 500 - Matthew 1 25

    2熱度

    1回答

    我對熊貓的MultiIndex很陌生,但我有一種情況,它會有幫助。我有一個結構爲這麼多指標(ON_SCENE和最後一臺)DF: ID ON_SCENE LAST 2016-05-05 03:58:54 last1 1000 2016-05-05 17:23:39 last1 1001 2016-05-05 18:20:50 l

    0熱度

    1回答

    我遇到了很多遇到的數據問題。我目前有一個包含交易信息的數據集。根據Transaction_Number,我會發現參與交易的每個人花費了多長時間。 最終輸出看起來像這樣 Transaction_Number Created On Created_By Time_Diff 27327920232 2014-12-08 03:29:08 jake NaN 273

    2熱度

    1回答

    數據與我在熊貓系列: data = ["1. stock1 (1991)", "3. stock13 (1993)", "5. stock19 (1999)", "89. stock105 (2001)"] # pandas Series 我需要過濾每個字符串,並保存爲 s.no sdata year 1 stock1 1991 3 stock13 1993 5 sto

    1熱度

    1回答

    我有一個csv文件的文件夾,我需要轉換和操作/清理,輸出一個數據幀,然後我可以繼續使用。我希望每個CSV文件都有一個唯一標題的數據框。我編寫的代碼能夠以我想要的方式操縱一個csv文件,最後還有一個乾淨的數據框,但是我試圖迭代文件夾並將所有的csv文件,以每csv數據幀結尾。 這是我一直使用的代碼: import pandas as pd import numpy as np import os

    0熱度

    3回答

    我有data.frame看起來像這樣: v1 <- c(1:10) v2 <- c(FALSE, FALSE, TRUE, FALSE, FALSE, FALSE, TRUE, FALSE, FALSE, FALSE) dfb <- data.frame(v1, v2) > dfb v1 v2 1 1 FALSE 2 2 FALSE 3 3 TRUE 4 4 FALSE