data-manipulation

    2熱度

    2回答

    這可能看起來像一個奇怪的問題,但有沒有辦法將值傳遞給filter(),基本上什麼都不做? data(cars) library(dplyr) cars %>% filter(speed==`magic_value_that_returns_cars?`) 你會得到整個數據幀cars回來。我認爲這可以在一個閃亮的應用程序中有用,用戶只需要選擇他想要過濾的值;例如,用戶可以選擇「歐洲」,「非洲

    0熱度

    1回答

    我想分割/複製線(分割一些部分,並複製其餘部分),非常像在MySQL中反向group_concat。 輸入如下(有超過100萬線總數): 2016-07-18 08:55:09,www.rozklad-pkp.pl,0.575,160x600;120x600,standard 2016-07-18 08:55:09,rozklad-pkp.pl,0.575,320x50;468x60;320x1

    0熱度

    1回答

    我有一個如下的數據集,對於每一行,我想根據條件移動一些列。 flv1 attr1_1 attr2_1 flv2 atrr2_1 atrr2_2 flv3 atrr3_1 atrr3_2 1 3 4 3 4 2 2 2 5 2 3 4 3 4 2 1 5 5 1 3 4 3 4 2 2 4 5 並且我想要達到的結果是當flvi下的數字不

    3熱度

    1回答

    我有以下兩個數據集。 我想刪除從A與日期的進出時段內落在文件B. 文件 SEQ ID date var1 1 A12 03JAN04 242 2 A12 01FEB06 356 3 A12 06JAN08 325 4 A12 28DEC09 123 5 B34 06MAY03 985 6 B34 13JUN03 198 7 B34 10MAY05 241 8 C56 09NOV10

    1熱度

    1回答

    我有創造一個過渡矩陣,下面的數據集的一個問題是我的工作, Name Rating ID DATE(YYYYmmdd) @0CC 1 71476 20000704 @0CC 1 71476 20001204 @0RM 1 73565 20000919 @0RM 2 49960 20000131 @0RM 1 44457 20001214 @0RM 1 59451

    2熱度

    2回答

    我想知道如何根據列是否有一個字符或多個字符取出數據框的子集。 dt = data.frame(id = c(1,2,3),character = c("a", "a a", "b"), stringsAsFactors = F) # id character #1 1 a #2 2 a a #3 3 b 我想要得到的是唯一的行只有一個在字

    0熱度

    2回答

    給定一個文本語料庫,要在R中使用tm (Text Mining) package來執行詞幹和詞幹完成來規範化詞條,但是,stemCompletion步驟在軟件包的0.6.x版本中存在問題。使用R 3.3.1和tm 0.6-2。 這個問題之前已經被問到過,但還沒有看到實際工作的完整答案。這裏是完整的代碼來正確地演示這個問題。 require(tm) txt <- c("Once we have a

    0熱度

    2回答

    我需要操作我的數組。 我有一個數組調用res其中包含我所有的結果。 請參見輸入下面。 RT Max blk24 blk23 mat23 sm23 sm24 1 1.6 261 13 19 19 27 20 2 1.6 284 NA 53 5 99 91 3 1.7 304 NA NA NA 81 NA 4 1.8 305 32 28 28 39 33 5

    0熱度

    1回答

    我使用getgeodata()方法從NCBI獲取微陣列數據。這返回結構,具有字段數據,它是DataMatrix,每列代表不同的樣本和代表探針的行。出於某種原因,儘管在數據矩陣的每個細胞本身是一個1x1的二維條碼,因此,當我嘗試做這樣的事情: am_accession = getgeodata('GSE2034') am_data_adj = rmabackadj(am_accession.Dat

    3熱度

    3回答

    說我有一個data.table看起來如下: dt = data.table(group = c(1,1,1,2,2,2,3,3,3),time = c("2016-03-09T08:31:00-05:00","2016-03-08T11:31:00-05:00","2016-03-06T08:31:00-05:00", "2016-04-04T23:28:00-04