datastep

    1熱度

    1回答

    我正在嘗試使用參數來編寫小型程序,以備份企業指南中的數據集(名稱+日期+時間)。這裏是代碼: data &WhatLib..&WhatTable%str(_)&SYSDATE.%sysfunc(tranwrd(%str(&SYSTIME.),:,_)) ; set &WhatLib..&WhatTable ; run; WhatLib(默認值工作)和WhatTable(默認值_PRODSA

    0熱度

    3回答

    我有一些數據,看起來像這樣 data example1; input Activity $ logflag; Activity1 1 Activity2 1 Activity3 1 Activity4 1 Activity1 2 Activity2 2 Activity3 2 Activity1 3

    0熱度

    3回答

    我的數據看起來像這樣,我不知道如何獲得列「想要」。我嘗試過各種保留,滯後和總和函數的組合,但遺憾的是沒有成功。 month quantity1 quantity2 want 1 a x x+sum(b to l) 2 b y sum(x to y)+sum(c to l) 3 c z sum(x to z)+sum(d to l) 4 d 5 e

    0熱度

    2回答

    我在SAS數據集中有4列,如下面的第一張圖所示。我需要通過ID比較連續行的日期。對於每個ID,如果Date2發生在相同ID的下一行Date1之前,則保留Bill金額。如果Date2發生在下一行的Date1之後,請刪除帳單金額。因此對於每個ID,只保留Date2小於下一行Date1的賬單。我已經把結果集應該放在底部。 結果集應該看起來像

    1熱度

    1回答

    我導出了sas-dataset,使用WinSCP複製到我的電腦併成功打開它。 但是,當我使用數據步驟發送文件時,文件已損壞。我點擊Outlook和Excel中的文件說:「該工作簿無法打開或由Microsoft Excel修復,因爲它會破壞」。 我該如何使用數據步驟電子郵件打開文件。 我的代碼: /* Create data */ data A; input B; datali

    0熱度

    1回答

    運行下面的代碼時出現錯誤。 &CNT是50和&vars中有列名。 每個列的值從1到100。我想選擇每一列並檢查以下標準(%if聲明),創建一個新變量併爲其賦值(如free,partially free和not free)。 option mlogic mprint; %macro analysis(); DATA Q2; SET Q1; %do i=1 %to &CNT.; %let s

    2熱度

    3回答

    我出口與SAS JSON格式的數據: %macro json4datatables(ds,path,file,charvars,numvars) /store source DES="json4datatables(ds,path,file,charvars,numvars)"; /* creates a json with no headers * a

    2熱度

    1回答

    我有這個宏創建一個json文件, 但即使我已經指定encoding='utf-8' bom我沒有得到一個utf-8文件。 %macro json4datatables_useformat(ds,path,file,charvars,numvars) / DES="json4datatables(ds,path,file,charvars,numvars)"; /* c

    2熱度

    2回答

    我有一個宏變量&myfiles其中包含四個數據集的名稱列表。 %put &myfiles; cpo.CDR_2016jun cpo.Cog_2016jun cpo.Mile_2016jun cpo.Path_2016jun 其中cpo是一個libname。 我想從我將其命名&New_Datasets另一個宏變量創建名稱四個新的數據集: %put &New_Datasets; CDR Cog

    0熱度

    1回答

    在SAS中,我擁有的數據集如下。 id A 1 2 1 3 2 1 3 1 3 2 ID被提供給每個單獨的,A爲分類變量這需要1,2或3。我想和每每個單獨分離一個觀測數據進入三個指示變量,說A1,A2和A3。 結果是這樣的: id A1 A2 A3 1 0 1 1 2 1 0 0 3 1 1 0 沒有人有任何想如何做到這一步的數據,而不是在SQL?提前致謝。