虛擬人物的即時互動
  文:資策會多媒體實驗室 王學武 劉振鐸

  以現今的電腦技術,電腦動畫所製作的擬真人物幾乎已經到「真假不分」的境界了,如 2001 年要上演的電影 ─ 太空戰士,片中的男女主角就全是虛擬的真人,然而這一切都有賴強大的後製作技術。隨著網路的普及,我們更希望虛擬人物可以在網站上跟我們做即時的互動,而這也可能成為未來網路上的新寵。

  對虛擬人物來說,要做到即時的互動,3D 模型就不能太複雜,此外臉部貼圖(Texture Mapping)的技術也非常的重要,擬真的臉部貼圖除了要考慮真實人物的特徵外,還需考慮年齡、皺紋…等生理現象。
 

圖一 擬真的人物臉部模型

  再來就是虛擬人物的講話了,這就需要"嘴形同步"(Lip Sync)技術。基本的原理很簡單,首先根據語言中發音的音素與相對應嘴型的大小做一個大致上的分類,舉例來說,中文的國語發音需要 15 種嘴型,英文則需要 10 種。也就是說,人物必須以這個分類為依據建立所需要的各種嘴型,當然各種嘴型必須依照人臉肌肉的實際運作來建立,否則在模擬說話時將會不夠真實。

  至於聲音的部分,無論是使用合成的聲音或是真人的錄音,我們所需要的是這段講話的內容中,每一個「音素分類」它的發音長度。有了這些控制資訊後,我們就能在正確依照聲音的進行時間,做出相對應的嘴型變化。當然中文的英文的作法略有不同,因為中文是一字一音,英文是一字多音。

  最後就是表情的控制,我們總不能讓虛擬人物永遠只有一種表情。這個只要專注在控制臉部一些如眉毛、額頭、嘴角、嘴唇、下巴等特徵點的變化就行了。