statistics

    0熱度

    2回答

    我試圖在Stata減少我的數據。我有多個變量,一個叫做Industry。 我想刪除所有屬於「銀行」的公司。但如果我使用這個命令: drop if Branche!="Banks" Stata只顯示我是銀行的公司。 你知道如何解決它嗎?

    0熱度

    1回答

    我正在從數百個URL列表中提取數據,每個URL都包含一個統計棒球數據表。在列表中的每個唯一的URL,對所有單個棒球運動員的職業生涯賽季的表,如下所示: https://www.baseball-reference.com/players/k/killeha01.shtml 我已經成功地創建一個腳本來追加數據從單URL合併成一個列表/數據框。然而,這裏是我的問題: 我應該如何調整自己的代碼來湊數百個

    0熱度

    2回答

    我正在開發折線圖。數據由傳感器生成並且是元組(時間戳,值)。傳感器每60秒左右創建一個新的數據點。 現在我想在圖表中顯示它,而我的限制是在圖形上的大約900個點。在這張圖的日常觀察中,我得到了大約1440分,這太多了。 我正在尋找一種通用的方法來將任意大小的數據集縮小到固定大小(在我的情況下爲900),同時它使時間戳分佈保持線性。 感謝

    0熱度

    1回答

    我試圖適應截短正態分佈使用最大似然5000個根據權利要求大小的數據集: l1 = function(theta) { -sum(dtruncnorm(x=size, a=0, b=Inf, mean = theta[1], sd=theta[2])) } mle1=optim(par=c(4,4), fn=l1) 當運行optim(par=c(4, 2), fn=l1)線但是,

    0熱度

    1回答

    我有這樣的代碼,從朱利安Farawy的線性模型書: round(cor(seatpos[,-9]),2) 我不確定什麼[,-9],2在做什麼 - 可能有人請幫助?

    1熱度

    1回答

    爲了從一系列分佈(對數正態分佈,指數分佈,伽馬值)中獲得p值,並且已經達到了該值,我一直在使用UNIVARIATE過程下面的問題: 我用下面的代碼獲取的擬合檢驗善良的p值各分佈: ods select all/*ParameterEstimates GoodnessOfFit*/; proc univariate data=results.Parametros_Prueba_1; v

    1熱度

    1回答

    給出一組用於訓練神經網絡的訓練示例,我們希望給予訓練中各種示例更多或更少的權重。根據示例的「值」(例如有效性或置信度)的一些標準,我們對每個示例應用0.0到1.0之間的權重。這怎麼能在Tensorflow中實現,特別是在使用tf.nn.sparse_softmax_cross_entropy_with_logits()時?

    0熱度

    1回答

    採樣模式我已經從連續分佈的採樣值,例如: import numpy as np values = np.random.normal(loc=0.4, scale=0.1, 1000) 我怎麼能估計基於這樣的價值觀的模式? 平均數和中位數很容易計算:np.mean(values)和np.median(values);但對於模式我不知道如何估計它,因爲這些值是連續的。 請注意,使用諸如scipy

    0熱度

    1回答

    在這個binom測試中,樣本估計的含義是什麼。他們似乎沒有改變porbability of success的變化。我試圖在文檔和Google上找到它的含義,但看不到它。我也試着手動計算它,檢查它是否意味着任何事情,但我仍然看不到它的真正含義。 有什麼想法? binom.test(60,300,0.3) Exact binomial test data: 60 and 300 number o

    0熱度

    1回答

    我使用'dwtest'命令對我的變量運行durbin-watson測試。 有8個獨立變量和267個樣本。 我得到以下結果,並想知道我是否可以得出結論 我沒有自相關問題。如果不是,我應該如何聲明? Durbin-Watson test data: y ~ x + x2 + x3 + x4 + x5 + x6 + x7 + x8 DW = 2.816, p-value =