normalization

    0熱度

    1回答

    我已經規範化了我的數據並應用了迴歸分析來預測產量(y)。 但我的預測的輸出也給出了標準化(0〜1) 我想在我的正確數據數字我的預測答案,而不是在0到1 數據: Total_yield(y) Rain(x) 64799.30 720.1 77232.40 382.9 88487.70 1198.2 77338.20 341.4 145602

    0熱度

    1回答

    一些LISP表達式求自己(的例子是MIT的方案REPL,雖然GNU Common Lisp的同意): 1 ]=> 3 ;Value: 3 而且是在正常的形式。對錶達式(例如(+ 2 1))的評估因此可以適當地被認爲是轉換爲正常形式。這很好,因爲這正是我一直正式理解評估的方式。 但隨着列表,我們就有麻煩了: 1 ]=> (list 3 2) ; Value 16: (3 2) 1 ]=>

    0熱度

    1回答

    目前我正在與Dimensional建模/數據倉庫/數據集市合作。 「尺寸建模」是數據倉庫的數據模型。有兩種基本模型:「星型模式」和「雪花模式」 尺寸建模用於OLAP(聯機分析處理)。 我一直在閱讀關於維度建模和OLAP,而這種數據庫被描述爲「非規範化」。 但是,由於我與他們合作,我看到所有的數據結構總是最低限度地在1NF。我從來沒有使用完全非規範化的數據庫結構。 所以這裏是問題,1NF是否意味着與

    0熱度

    1回答

    嗨。我對tf很陌生,問題是如何將批量歸一化應用於推理。我在訓練和測試過程中使用tensorflow進行批量歸一化。代碼如下,你可以看到,我用不同的mean和var值來對待培訓和測試。現在訓練已經完成,我想將模型應用於練習。比如使用演示加載ckpt文件並測試一個例子。在這種情況下,我怎樣才能使這一個案例正常化?是否有任何方法可以在每次訓練和恢復之後保存BN的均值和變量?非常非常感謝你! fc_mea

    1熱度

    1回答

    如何將此列標準化爲所有字段均爲「%T」格式?時間,24小時(hh:mm:ss) 查詢SQL:SELECT duration FROM time_tbl; Results exemples: 2:43:30 52:53 0:01 1:58:21 28:56 NULL 02:05:35

    1熱度

    1回答

    Hy guys, 我有一個包含1.350.000行和113列(樣本)的表。 我想要的是用最小的樣本對所有數據進行歸一化。 例如: Org samp1 samp2 samp3 samp4 samp5 samp6 A 0.08 4.92 3.34 5.50 2.98 2.99 B 1.97 3.96 4.49 2.79 4.73 4.00 C 4.05 3.99 4.89 3.72 3.83 5

    0熱度

    3回答

    我需要對我的數據執行z歸一化(即轉換變量爲mean = 0和sd = 1)。 我用下面的公式(例如縮放年平均溫度,「MAT」): sca$MAT <- (sca$MAT - mean(sca$MAT))/sd(sca$MAT) ,但我得到NaN值,因爲很少有數據缺失這個變量。如何在上述公式中排除MAT的NA值? PS:我試圖在公式中包含na.rm=TRUE,但它不起作用。 一個更快的方式很可能

    0熱度

    1回答

    據我理解如果我想申請數據的歸一化[0,255]至[0,1),I可以通過標尺的參數:在prototxt的transform_param 0.00390625文件。但是,如果我想執行數據的標準化爲[-0.5,0.5](以便具有0均值分佈),那麼原型文件的級別呢? 考慮我train_val.prototxt文件看起來像如下: transform_param { mirror: true

    -3熱度

    2回答

    試圖制定一個基本的C程序來查找向量,我以爲我在某處,但我已經着手停止,而不一定是在錯誤方面,而是在它背後的邏輯。這裏是我的代碼: #include<stdio.h> #include <math.h> int norm_vec(int *x, int n) { int i; float modul; for(i=0;i<n;i++;) { modul=++ x

    -1熱度

    1回答

    假設我有幾個值如下: x1 x2 x3 y 1 40 0.9 1 0.9 80 0.5 1 0.6 50 0.6 0 0.4 30 0.7 0 使得值樣子: x1 x2 x3 y 1 0.5 0.9 1 0.9 1 0.5 1 0.6 0.7 0.6 0 0.4 0.8 0.7 0