arkit

    0熱度

    3回答

    我使用的是帶有SceneKit的ARKit。當用戶按下一個按鈕時,我創建一個錨點並與其對應的SCNNode添加一個3D對象(從項目中的.scn文件加載)。 將3D物體朝向相機放置,與相機具有相同的方向。我想讓它看起來像物體躺在平面上,如果是這樣的話,不要傾斜。所以,如果我知道了,我需要應用一個旋轉變換,以便圍繞X和Z軸的旋轉變爲0. 我的嘗試是:取節點的x和z eulerAngles,將它們顛倒和

    4熱度

    2回答

    在幾乎所有的ARKit教程中,似乎我們總是使用ARPlane來發言。 let planeGeometry = SCNPlane(width:CGFloat(planeAnchor.extent.x), height:CGFloat(planeAnchor.extent.z)) let planeNode = SCNNode(geometry:planeGeometry) planeNode.p

    2熱度

    1回答

    我正在使用蘋果https://developer.apple.com/sample-code/wwdc/2017/PlacingObjects.zip給出的樣本基於AR POC。 有什麼辦法放置在上面Scenekit另一個3D對象3D對象? ,比如我有擺放了一張桌子上面,我必須把別的東西像一個花瓶。如何實現這一目標? 因爲據我所知,ARKit是隻檢測地板表面,如果我嘗試放置花瓶在已經保持表,它是將

    2熱度

    1回答

    這可能是一個非常困難的問題。到目前爲止,ARKit與3D建模軟件中的3D模型一起工作。我想知道是否有一種方法可以使用手機攝像頭來3D掃描物體(比如汽車),然後在ARKit中使用它。任何可以在其他平臺或iOS上執行此操作的開源項目?

    5熱度

    1回答

    我真的很喜歡一些關於如何將Apple的新Vision API與ARKit結合起來的方式來實現物體識別的指導。這不需要跟蹤移動物體,只需將其識別爲穩定的三維空間,即可讓AR體驗做出相應的反應。 我知道這種類型的體驗在Vuforia或Wikitude等服務中可用,但我只想嘗試使用本機Apple API。

    2熱度

    1回答

    我正在嘗試使用平移手勢識別器移動scenekit中的節點。我只是沿x軸移動它,但是我的手勢使對象進一步/更快地移動,然後它甚至應該只使用小手勢。我不是100%肯定,我在做什麼錯在這裏,但這裏是我的手勢識別代碼: @objc func handlePan(pan:UIPanGestureRecognizer) { if pan.state == .changed { let t

    0熱度

    2回答

    我正在使用ARKit-SceneKit處理應用程序。在我的應用程序中,我已經啓用了表面檢測(我跟着apple提供的放置對象樣本)。如何查找檢測到的表面是否不再可用?也就是說,最初只有當用戶在ARSession中檢測到表面時,我才允許他放置3D對象。 但是,如果用戶快速移動或聚焦某處,檢測到的表面區域就會丟失。在這種情況下,如果用戶試圖放置另一個物體,我不應該允許他放置它,直到他再次掃描地板並修正表

    1熱度

    2回答

    所以要清楚我的目標,因爲我沒有任何代碼可以分享...可以說我有一個位於攝像頭和另一個SCNNode之間的SCNNode。第一個SCNNode是SCNBox,但沒有紋理,因此第二個SCNNode可以在它後面看到。我想給第一個節點一個透明的材質,但是也讓它隱藏在它後面的所有節點,就好像它是不透明的。在一個普通的場景中,這意味着你可能會看到場景背景顏色,也許是黑色的,但是我打算在ARKit中這樣做,因爲

    1熱度

    1回答

    尋找一種方式來捕獲屏幕截圖或ARScene的視頻,而無需按鈕和其他子視圖 傳統屏幕捕捉捕捉一切畫面包括UI控件

    2熱度

    4回答

    在Apple的演示文稿中他們說如果ARWorldTrackingConfiguration不支持,我們可以使用較小的AROrientationTrackingConfiguration(以前稱爲ARSessionConfiguration)。 但是當我嘗試這一個A8設備(iPad的迷你4)上,它沒有什麼區別是否讓ARWorldTrackingConfiguration()失敗與否。跟蹤不起作用。