0
A
回答
0
kNN只需要一個接近度測量值,其中較小的值表示較近。這是因爲kNN將新觀察結果與訓練示例進行比較,並找出k個最接近的(具有最低接近值的前k個)。 適用於kMeans use search。
編輯: 即使kNN的犯規需要的三角公式,它在O(n * m個)時間,其中n是訓練集的大小,m是所評價的集合的大小延伸。優化通常需要至少三角方程來支持,儘管其中一些有更多的約束(例如:k-d樹只能在歐幾里得空間中工作)。有關更多信息,請參見this question。
相關問題
- 1. K-最近鄰居
- 2. 查找最近的鄰居/經度
- 3. 如何通過R最近鄰居求解最近鄰居?
- 4. 非度量空間中的最近鄰居搜索
- 5. JavaScript的最近鄰居庫
- 6. 存儲最近的鄰居
- 7. 預測只有最近的鄰居值?
- 8. 最近鄰居啓發式
- 9. 最近鄰居算法
- 10. Excel宏最近鄰居
- 11. 查找K最近鄰居
- 12. 最近鄰居2維
- 13. K最近鄰居僞碼?
- 14. 針對特定任務的有效最近鄰居搜索?
- 15. 最近鄰居和反向最近鄰居查詢之間的區別
- 16. python中的K最近鄰居
- 17. 數據集中的最近鄰居Node.js
- 18. 確定Dijkstra中的最近鄰居
- 19. D3中的最近鄰居搜索
- 20. 接近最近鄰居搜索
- 21. python近似最近鄰居庫(WINDOWS)
- 22. k最近鄰居中浮點數的文字無效
- 23. PostGis最近的鄰居查詢
- 24. 使用KDtree的最近鄰居
- 25. OpenCL內存優化 - 最近的鄰居
- 26. MongoDB如何找到最近的鄰居
- 27. Matlab最近的鄰居/跟蹤點
- 28. 使用Quaternion的最近鄰居
- 29. C++犰狳:最近的鄰居
- 30. CGAL:獲取最近鄰居的信息
看到我的編輯,昨天我回答的時候有點晚了,它並沒有涵蓋所有的東西 – Kicsi