normalization

    0熱度

    1回答

    我有一箇舊的數據庫設計,我認爲我可以簡化並使其更規範化。我希望對此有所瞭解。這裏是「規則」的數據庫: 該組織由三個層次: 一個。局 - 是最高級別 b。辦公室 - 每個局可以有多個辦公室 c。分部 - 每個辦公室可以有多個部門 我們有三個層級的所有員工。例如: a。我們有局級職員。他們不屬於辦公室或部門。監督所有辦公室,但不屬於他們 b。我們擁有不屬於特定部門的辦公室級員工,但監督所有部門 c。屬

    0熱度

    2回答

    我想知道我在做什麼錯在這裏用矢量設置 (define foo0 (lambda (vec) (let* ((newvec (vector vec)) (l (vector-length vec)) (norm (norm0 vec))) (do ((i 0(+ i 1))) ((= i l)) (vector-s

    0熱度

    1回答

    我有一個加權平均值爲0.4860247的數據集。我試圖規範化.5的數據。我正在使用scale(),但我的問題是我沒有所有的數據。相反,我有一列的總數和另一列的百分比。 data <- data.frame(percent = c(0.455188841201717, 0.461817275747508, 0.464727272727273, 0.466502777777778, 0.4728208

    0熱度

    1回答

    這種關係在3FD歸一化中是否屬實?我能做些什麼(電話號碼),它是確定所有行?請任何人幫助我將這種關係轉換爲3FD,並保持正確的關係。

    0熱度

    1回答

    我是預處理神經網絡的輸入數據。 爲了減少輸入的維數,我正在運行PCA。 我想正常化我的數據,我應該在運行PCA之前還是之後執行? 即在原始數據/ PCA輸入上還是在PCA輸出/ NN輸入上?

    0熱度

    1回答

    我想在Python實現比這個職位的相同功能的本地規範化:link 但是,我不能得到平滑的結果,無論我試試,儘管我都嘗試實施,提供了更正的OP和第二個答案。 我可能錯過了一些小東西,但我找不出什麼。 def local_norm(img, sigma_1, sigma_2): float_gray = img * cv2.CV_32FC1/255.0 blur_1 = int(

    0熱度

    1回答

    我正在研究一個chatbot程序來練習python,以及一些sklearn機器學習算法。 現在我只是給chatbot隨機句,並告訴它,如果句子是正確的。每個單詞都爲自己,類型(語法)和情緒(正面,負面,中性,低俗等等)分配了鍵。 將每個輸入給定的句子保存到csv文件後。 每個句子有三個特徵:key,key_type,key_mood和一個標籤:0(不正確)和1(正確)。 首先,對於每個鍵,我有一個

    1熱度

    1回答

    在應用最小最大比例來規範化您的要素時,是否在將整個數據集分解爲訓練,驗證和測試數據之前對其應用最小最大比例縮放? 或者你先分割,然後在每個集合上應用min max,使用該特定集合中的最小值和最大值? 最後,在對新輸入進行預測時,應該在輸入網絡之前使用訓練數據中的最小值,最大值對輸入的特徵進行歸一化處理?

    0熱度

    1回答

    我有一個關係 CAR_SALE(Car#, Date_sold, Salesperson#, Commission%, Discount_amt) Primary Key: {Car#, Salesperson#} Additional Dependencies: Date_sold -> Discount_amt Salesperson# -> Commission%

    0熱度

    1回答

    我有一個包含二進制數據(0,1)和不同單位的數字數據的數據集。如果我想應用一些機器學習技術對我的數據進行分類(可能是自動編碼器或層次聚類),我應該對數據進行標準化還是標準化? 謝謝!