我有一個面部動畫設備,我以兩種不同的方式駕駛:在Maya視口中有一個藝術家UI,這是常見的交互式動畫設置,我已連接它與FaceShift無標記運動捕捉系統一起使用。Maya Mel項目look在運動捕獲後導入到目標位置
我設想一個工作流,其中捕獲性能,導入到Maya中,平滑和減少樣本數據,然後動畫師接管完成。
我們的臉部設備的眼睛注視由三個對象(全局lookAtTarget和左右眼部偏移)的迷你層級控制。
因爲眼睛注視是由這個LookAt設置控制的,所以當眼睛注視時(包括動作捕捉數據被導入),它們需要被禁用。
運動捕捉數據導入後,眼睛注視現在設置爲運動捕捉旋轉。
我尋求短梅爾例程執行以下操作:它遊行通過動作捕捉眼球的轉動樣品,向後計算,並設置每個眼注視目標位置,並平均兩到獲得全球注視目標的位置。
之後,運行Mel例行程序,我可以將眼睛的LookAt約束重新打開,眼睛注視控制返回到鑽臺,視覺上沒有任何變化,動畫師將再次在Maya視口中使用其眼睛UI。
我想這應該是任何人做面部動作的共同邏輯。任何人都有這樣的事情嗎?
棘手的問題是確定焦距的初始值:我認爲OP正在尋找一種方法來推導出數學上的結果。它的複雜性在於,如果真實目標距離數米以外,眼睛可能不會聚焦 - 在該距離處,眼球掃視可能會平均化爲更平行的凝視,而不是純粹的觸發解決方案 – theodox
如果鑽機是爲動畫製作人員使用而製作的,他們很可能需要在鑽機附近使用控制定位器。OP還說:「每隻眼睛」都看着目標位置,並將兩者平均以獲得全局LookAt目標的位置「。對於一隻眼睛來說,它看起來是一條線,所以獲得位置的唯一穩定方法是指定焦距。如果你試圖從收斂中計算一個lookat,那麼結果並沒有很好的定義,並且會跳到任何真實世界的數據集上,然後動畫師將不得不手動清理它。我不確定什麼眼鏡與它有關。 –