迪士尼研究院用深度學(xué)習(xí)打造語(yǔ)音動(dòng)畫(huà),讓VR社交更真實(shí)
最近,迪士尼研究院聯(lián)合東安格利亞大學(xué)、加利福尼亞理工大學(xué)和卡內(nèi)基梅隆大學(xué)的研究人員,發(fā)布了一篇題為“A Deep Learning Approach for Generalized Speech Animation”的論文,闡述了通過(guò)深度學(xué)習(xí)來(lái)實(shí)現(xiàn)程序語(yǔ)音動(dòng)畫(huà)的方法。該方法采樣完人們的錄音后,即可自動(dòng)生成與語(yǔ)音相匹配的口型動(dòng)畫(huà)。
據(jù)了解,這是一個(gè)借助深度學(xué)習(xí)方法進(jìn)行訓(xùn)練的系統(tǒng),它能夠分析來(lái)自任何揚(yáng)聲器的音頻,學(xué)習(xí)從語(yǔ)音標(biāo)簽輸入序列到口部運(yùn)動(dòng)的任意非線性映射,然后系統(tǒng)會(huì)自動(dòng)生成相應(yīng)的口形以及符合語(yǔ)音的面部模型。
如果應(yīng)用到虛擬現(xiàn)實(shí)中,可以讓虛擬的人物形象在說(shuō)話的時(shí)候保持和現(xiàn)實(shí)中用戶相同的口型變化,讓VR社交應(yīng)用的VR形象更加逼真。而且對(duì)于虛擬化身語(yǔ)音動(dòng)畫(huà)來(lái)說(shuō),雖然口型追蹤是比較準(zhǔn)確的方法,但是在這種口型追蹤硬件普及之前,迪士尼研究院的程序語(yǔ)音動(dòng)畫(huà)是一個(gè)行之有效的好方式。
另外,在一些VR社交應(yīng)用中也有通過(guò)系統(tǒng)實(shí)現(xiàn)語(yǔ)音動(dòng)畫(huà)的方式,主要也是基于音頻來(lái)制作虛擬形象的口型動(dòng)畫(huà),而基于深度學(xué)習(xí)的系統(tǒng)可以提供更高的準(zhǔn)確性以及細(xì)節(jié)度。
【版權(quán)聲明】:本站內(nèi)容來(lái)自于與互聯(lián)網(wǎng)(注明原創(chuàng)稿件除外),如文章或圖像侵犯到您的權(quán)益,請(qǐng)及時(shí)告知,我們第一時(shí)間刪除處理!謝謝!