我在R中運行邏輯迴歸模型。我使用了Zelig和Car包。但是,我想知道是否有一種簡單的方法來獲得模型的模型擬合統計量。 (僞R方,卡方,對數等)Logistic迴歸的模型擬合統計
回答
如果不知道模型對象是什麼,很難回答這個問題。我不確定Zelig
產生什麼。
我會看names(model)
,names(summary(model))
或names(anova(model,test = "Chisq"))
,看看你想要的數據是否在那裏。我知道對於對數似然來說,logLik(model)
會給你你想要的。
儘管我不是專家,但物流回歸模型的模型擬合統計量在解釋方面並不像直線迴歸方法那樣簡單明瞭。假設你有一個二元響應,我發現有用的一種方法是按照預測的概率區間(0-10%,10%-20%,... 90%-100%)對數據進行分組,並比較實際概率到預測的。這非常有用,因爲您的模型通常會在低端預測過高或在高端預測不足。這也可能導致更好的模型。
假設glm1
是您的型號,您的尺寸是n = 100
。
這裏有一些優度配合措施:
R2<-1-((glm1$deviance/-2)/(glm1$null.deviance/-2)) cat("mcFadden R2=",R2,"\n")
R2<-1-exp((glm1$deviance-glm1$null.deviance)/2*n) cat("Cox-Snell R2=",R2,"\n")
R2<-R2/(1-exp((-glm1$null.deviance)/n)) cat("Nagelkerke R2=",R2,"\n")
AIC<- glm1$deviance+2*2 cat("AIC=",AIC,"\n")
這樣,你有怎樣計算的概述四人幫的測量。
在這個話題上只是一個簡短的補充:GoF測量取決於Loglikelihood-value,它們爲什麼被視爲不像「正常的」R-正方形。 0.2的McFadden值並不意味着20%的方差由模型解釋,因此它與OLS計算的R-Square不同。但是在大多數模型中,僞R平方> = 0.2的值非常好。 – Redfood 2013-04-11 13:44:16
- 1. 適合我的數據的Logistic迴歸模型
- 2. Logistic迴歸的虛擬變量R
- 3. 線性迴歸模型擬合不佳
- 4. Logistic迴歸Python
- 5. Logistic迴歸宏
- 6. Python Logistic迴歸
- 7. Logistic迴歸錯誤
- 8. Logistic迴歸在scikitlearn
- 9. 大規模數據Logistic迴歸
- 10. logistic迴歸中的折刀
- 11. Logistic迴歸中的排序
- 12. 使用logistic迴歸模型的logit值分配值0或1
- 13. Scikit學習:Logistic迴歸模型係數:澄清
- 14. Logistic迴歸Varimp總是與其他模型不同; Text Analytics R
- 15. 套袋logistic迴歸r
- 16. Logistic迴歸雙循環R
- 17. 決策樹與Logistic迴歸
- 18. 多重Logistic迴歸在Python
- 19. Python或SQL Logistic迴歸
- 20. 錯誤代碼logistic迴歸
- 21. Logistic迴歸使用R
- 22. 如何在統計模型中使用分組響應(事件/試用)Logistic迴歸
- 23. 虛擬變量在迴歸模型中的組合效果
- 24. 使用統計模型中的OLS進行多元迴歸
- 25. Python中的虛擬變量SKLearn Logistic迴歸
- 26. MXNET可以在R中擬合迴歸LSTM模型嗎?
- 27. Pandas統計模型ols迴歸預測使用DF預測?
- 28. TensorFlow返回nan當實施Logistic迴歸
- 29. R中的多級Logistic迴歸
- 30. opencv的Logistic迴歸加載失敗
你可以在這裏找到幾個例子:http://www.ats.ucla.edu/stat/r/dae/mlogit.htm – nico 2010-11-21 11:51:57
看起來你有一個你喜歡的答案(下),你會願意選擇它作爲您的首選答案? – 2011-01-03 01:33:17
您可能會發現此問答網站更適合查看統計問題:http://stats.stackexchange.com/ – 2011-01-03 01:36:34