我一直在嘗試使用CoreML(Apple的機器學習庫)。我下面這些教程上手使用VNCoreMLModel和Inceptionv3.model()之間的區別?
1)https://www.appcoda.com/coreml-introduction/
2)https://www.raywenderlich.com/164213/coreml-and-vision-machine-learning-in-ios-11-tutorial
第一個教程使用一個盜夢空間V3和第二教程使用Places205-GoogLeNet模型的解釋。
畢竟基本建立步驟
的Places205-GoogLeNet教程使用下面的代碼
func detectScene(image: CIImage) {
answerLabel.text = "detecting scene..."
// Load the ML model through its generated class
guard let model = try? VNCoreMLModel(for: GoogLeNetPlaces().model) else {
fatalError("can't load Places ML model")
}
}
和第二代碼使用此
guard let prediction = try? model.prediction(image: pixelBuffer!) else {
return
}
的是這之間的區別兩種方法,哪一種更推薦,因爲這兩種類型都可以用來傳遞像素緩衝區並顯示結果?
關於Core ML與Vision框架之間的API如何相互關聯,有一篇文章[here](http://deepdojo.com/mlmodel-api)。 – otto