4
獲得從槌各種文件的各種概率分佈後,我已經應用了下面的代碼,以計算該第一和第二文件之間的KL散度:主題建模槌:如何解釋相對熵
Maths.klDivergence(double[] d1,double[] d2);
我應該如何解讀獲得的數據?例如,我得到:12.3640 ... 這是什麼意思?這兩種分佈是近還是遠?
獲得從槌各種文件的各種概率分佈後,我已經應用了下面的代碼,以計算該第一和第二文件之間的KL散度:主題建模槌:如何解釋相對熵
Maths.klDivergence(double[] d1,double[] d2);
我應該如何解讀獲得的數據?例如,我得到:12.3640 ... 這是什麼意思?這兩種分佈是近還是遠?
顧名思義,KL-Divergence給出了一種分佈與另一種分佈的分歧。它基本上是一個分佈丟失的信息,而接近另一個分佈意味着 - 值越小,相似性越高。如果更類似你不會丟失任何信息