人工智能在視頻操作方面十分強(qiáng)大,利用deepfakes 技術(shù)來實(shí)現(xiàn)人臉交換就是最顯著的例子。然而,技術(shù)更新?lián)Q代日益迅猛,deepfakes 技術(shù)的最新應(yīng)用是什么呢?讓我們且稱之為deepfakes舞蹈合成術(shù)。它利用人工智能讀取舞蹈動作,并將其復(fù)制到目標(biāo)對象。
該技術(shù)是由加州大學(xué)伯克利分校的四位研究人員研發(fā)的。正如他們在arXiV上發(fā)表的一篇論文中所述,該系統(tǒng)由許多獨(dú)立的步驟組成。首先,錄下目標(biāo)對象的視頻,用子程序?qū)⑵鋭幼鬓D(zhuǎn)化為線條畫。(要保證轉(zhuǎn)化的質(zhì)量則需要較多的視頻素材:大約20分鐘的視頻,每秒120幀)。然后,找到一個源視頻,并制作他們動作的線條畫。然后,就可以進(jìn)行交換了,基于源視頻的動作線條畫通過神經(jīng)網(wǎng)絡(luò)合成目標(biāo)對象的視頻。
從現(xiàn)代舞到芭蕾舞,該系統(tǒng)可將各種風(fēng)格的舞蹈動作轉(zhuǎn)化為線條畫
這聽起來可能很簡