logistic-regression

    0熱度

    1回答

    因此,我正在用邏輯迴歸算法逼近分類問題,並獲得了類「1」的測試集的所有預測。該集合非常不平衡,因爲它具有超過200k的輸入,92%的集合來自類「1」。如果P(Y = 1 | X)> 0.5,Logistic迴歸通常將輸入分類爲類「1」。因此,由於測試集中的所有觀察值都被歸類爲1類,我認爲可能有一種方法來改變該閾值並將其設置爲例如0.75,以便只有P(Y = 1 | X)> 0.75的觀察值歸類到類

    1熱度

    1回答

    我試圖以配合二元響應廣義相加模型,使用的代碼: library(mgcv) m = gam(y~s(x1)+s(x2), family=multinom(K=2), data=mydata) 下面是部分我數據(樣本量爲443): mydata[1:3,] y x1 x2 1 1 12.55127 0.2553079 2 1 12.52029 0.2264185 3 0 1

    1熱度

    1回答

    我需要手動編程概率迴歸模型而不使用glm。我會用optim直接最小化負對數似然。 我寫了下面的代碼,但它不工作,給錯誤: cannot coerce type 'closure' to vector of type 'double' # load data: data provided via the bottom link Datospregunta2a <- read.dta("proble

    2熱度

    1回答

    我一直在使用tensorflow的LinearClassifier()班培養了邏輯迴歸模型的模型,並設置model_dir參數,它指定的位置在哪裏模型訓練過程中保存檢查站的metagrahps : # Create temporary directory where metagraphs will evenually be saved model_dir = tempfile.mkdtemp()

    1熱度

    1回答

    我想繪製一個使用ROCR軟件包的標準偏差ROC曲線。 我現在用的是quality.csv文件重複的例子,在這裏找到 - https://courses.edx.org/courses/course-v1:MITx+15.071x_3+1T2016/courseware/5893e4c5afb74898b8e7d9773e918208/030bf0a7275744f4a3f6f74b95169c04

    1熱度

    1回答

    我正在嘗試data.frame邏輯迴歸(11359行,137列)。 data.frame包含Y(一個因變量)和預測變量(136個獨立變量)。所有變量都是二進制的。 我創建基於 「my_data」 data.frame公式是f = as.formula(paste('y ~', paste(colnames(my_data)[c(3:52, 54:133, 138:143)], collapse =

    -1熱度

    1回答

    我正在使用python.Now使用多項Logistic迴歸來執行特徵選擇(在具有1,00,000行和32個特徵的數據集上),按順序選擇特徵的最有效方式是什麼爲多類目標變量(1,2,3,4,5,6,7)建立模型?

    0熱度

    1回答

    我試圖在R中使用文本數據進行邏輯迴歸。我已經構建了一個文檔矩陣和相應的潛在語義空間。根據我的理解,LSA用於從「術語」中導出「概念」,這可能有助於降低維度。這裏是我的代碼: tdm = TermDocumentMatrix(corpus, control = list(tokenize=myngramtoken,weighting=myweight)) tdm = removeSparseTer

    0熱度

    1回答

    我目前正在使用tensorflow根據其「寬」教程實現邏輯迴歸器:https://www.tensorflow.org/tutorials/wide 我的代碼與教程非常匹配,但是,當我在模型,它每次都會猜測負面的類,這是大約77%的數據。我怎樣才能讓我的模型冒險進行積極的猜測?我不是正規化的,所以方差應該是最大值。該文檔誇耀了84%的準確性,我使用完全相同的數據集。可能會出現什麼問題?這裏是訓練碼

    0熱度

    1回答

    我是新來斯卡拉,我想實現一個迴歸model.So最初我加載如下csv文件: val sqlContext = new org.apache.spark.sql.SQLContext(sc) val df = sqlContext.read.format("com.databricks.spark.csv") .option("header", "true") .option(