我對數據邏輯迴歸和樸素貝葉斯運行了兩種不同的分類算法,但即使我改變訓練和測試數據比率,它也給了我相同的精度。以下是我正在使用的代碼 import pandas as pd
from sklearn.cross_validation import train_test_split
from sklearn.preprocessing import StandardScaler
from skl
樸素貝葉斯我試圖理解爲什麼樸素貝葉斯分類與特徵數量線性縮放,相較於同樣的想法,而不幼稚的假設。我瞭解它how the classifier works和what's so "naive"。我不清楚爲什麼天真的假設給我們線性縮放,而解除這個假設是指數的。我正在尋找一個示例,演示了線性複雜度下的「天真」設置下的算法示例,以及沒有這種假設的同一個示例將展示指數複雜性。