grouping

    1熱度

    1回答

    我想要實現在由幾列的如下所示的數據集的程序: +-----------+---------------+-------------------+-----------------------+ |Item_ID |Product_Name |Manufacturer_Name |Product_Description | +-----------+---------------+-------

    1熱度

    2回答

    剛剛熟悉熊貓,我遇到了groupby問題。 我有,我已經被改寫的成以下格式一些CSV數據: Time, AAA, BBB, AAA, BBB 20161201 9:00:00, 10, 20, 11, 21 20161201 9:00:01, 10, 20, 11, 21 20161201 9:00:02, 10, 20, 11, 21 我想將它轉化爲以下幾點: Time, AAA, BBB 20

    0熱度

    1回答

    轉換列行與連接表 我有以下結構: WordTemplatesByAssemblyPackage [PackageId] [TemplateId] WordTemplate [TemplateId] [Name] WordTemplatePlainDataMappings [TemplateId] [UDF01SdtTag] [UDF02SdtTag] [UDF03SdtTag] ..

    2熱度

    2回答

    我有一個DataFrame(多個日常時間序列),DateTimeIndex爲index和MultiIndex爲columns。我想選擇一個列並創建一個Box Plot,其中數據按年份分組。我認爲這很容易,但我正在努力獲得一些結果。 >>> daily.shape (11319, 118) >>> daily.index DatetimeIndex(['1986-01-01', '1986-

    0熱度

    2回答

    我發現類似 東西的example從本質上講,我需要保持一個組中的所有項目,其中等於一些因素用戶。 例如這裏是我的初始數據框。 data <- data.frame(user = c("a","a",'b',"b",'c',"c","a","a","a","d","d","d"), invoiceNum =c(1,1,1,1,1,1,2,2,2,2,2,2)) 我需要保留所有具

    0熱度

    1回答

    我有以下的飛行供應數據結構給出: { "offerIdentifier": "123", "flyFrom": "HAM", "flyTo": "LGW", "provider": "LH", "price": 207, "bookingUrl": "https://example.com/", "flightCombinati

    1熱度

    2回答

    給出這個熊貓數據框有兩列,'值'和'間隔'。如何獲得第三列'MinMax',指示該值在該間隔內是最大值還是最小值?我面臨的挑戰是間隔長度和間隔之間的距離不固定,因此我發佈了這個問題。 import pandas as pd import numpy as np data = pd.DataFrame([ [1879.289,np.nan],[1879.281,np.nan],[

    0熱度

    1回答

    我從幾個羣體中的每個羣體都有多個觀察結果,我想製作一個QQ圖(或其他類型的圖)的矩陣,將每個羣與每個其他羣進行比較。 這裏就是我談論的例子: library(tidyverse) set.seed(27599) n <- 30 d <- data_frame(person = c(rep('Alice', n), rep('Bob', n), re

    1熱度

    2回答

    我是C#的新手,最近剛剛開始創建一個基於小型文本的RPG遊戲,我正在使用Visual Studio 2017.我想要一些不同的文件,其中包括標記所有不同的文件遊戲中的敵人類型,他們的攻擊行爲有多大傷害,他們的防禦以及他們的健康狀況。我有這個到目前爲止: string rat; int enemyHealth; int enemyAtkDmg; int enem

    0熱度

    1回答

    我有下面的代碼,我需要將其調整爲輸出不是100%正確的: df = read.table(text='colA colB colC 10 11 7 10 34 7 10 89 7 10 21 7 9 8 0 9 11 0 9 21 0 2 23 5 2 2