我從DPGMM得到的結果並不符合我的預期。例如:sklearn.mixture.DPGMM:意外的結果
>>> import sklearn.mixture
>>> sklearn.__version__
'0.12-git'
>>> data = [[1.1],[0.9],[1.0],[1.2],[1.0], [6.0],[6.1],[6.1]]
>>> m = sklearn.mixture.DPGMM(n_components=5, n_iter=1000, alpha=1)
>>> m.fit(data)
DPGMM(alpha=1, covariance_type='diag', init_params='wmc', min_covar=None,
n_components=5, n_iter=1000, params='wmc',
random_state=<mtrand.RandomState object at 0x108a3f168>, thresh=0.01,
verbose=False)
>>> m.converged_
True
>>> m.weights_
array([ 0.2, 0.2, 0.2, 0.2, 0.2])
>>> m.means_
array([[ 0.62019109],
[ 1.16867356],
[ 0.55713292],
[ 0.36860511],
[ 0.17886128]])
我預計結果會更像香草GMM;即兩個高斯(約值1和6),具有非均勻權重(如[0.625,0.375])。我預計「未使用」的高斯人的權重接近於零。
我是否錯誤地使用模型?
我也試過改變阿爾法沒有任何運氣。
您使用0.12版本的具體原因是什麼? – Rohit