人工智障“愛醬”是如何煉成的?

青亭網( ID:qingtinwang )--鏈接科技前沿,服務商業創新

去年底,一個叫做絆愛(Kizuna AI)的虛擬偶像上線國外視頻網站YouTube,憑借可愛的形象和甜美的聲音瞬間圈粉無數。在無數宅男為之傾倒的背后,這種能夠與觀眾進行實時互動的“人工智障”,又是如何煉成的呢?

1

為了搞清楚這個問題,我們查閱了大量的相關資料并對愛醬這一虛擬形象的制作過程進行了推演,雖然無法保證與真實的制作過程完全一致,但大致的套路是絕逼不會錯的。

從這個視頻中,我們可以看出,愛醬這一虛擬形象被刻畫得非常形象:聲音甜美、表情多變,既萌又蠢還智障!

sIvM-fyixiar9727283

那么問題來了,她真的是人工智能嗎?

NoNoNo!雖然愛醬始終宣稱自己是“Super AI”,但其實,這只是官方對于絆愛(Kizuna AI)這一虛擬形象的“設定”而已。實際上,愛醬的制作過程,簡單來說,主要包括以下三個要素:

①聲優做動作+配音+語音識別對口型

②由專人控制的豐富的面部動態表情包

③以動捕為核心的“動作捕捉系統KiLA”

而在說明這三點之前,首先我們要明確的一點就是,愛醬的視頻或是直播,其實只是一種

三維動畫!

這一點,從Kizuna AI的官網上就可以印證。Kizuna AI表示,愛醬這一虛擬形象的模型由MMD制作而成,感興趣的大胸弟可以移步其官網進行下載。

而要讓這個由MMD制作的“愛醬”動起來,則需要用到下面這套可以對動作進行實時捕捉并模擬的動作捕捉系統KiLA(核心)!

2

首先,需要由對“愛醬”這一虛擬形象進行配音的聲優小姐姐穿上名為“Perception Neuron”的慣性動作捕捉設備(由國內廠商諾亦騰提供);

然后,在經過幾個步驟的動作校準之后,愛醬就可以根據聲優小姐姐所做出的動作活靈活現地出現在屏幕上;

最后,在Unity的環境中為已經完成動捕校準的“愛醬”建立虛擬攝像機,就可以從不同的角度觀察這個傳說中的“人工智障”啦!

3

而將這一圖像進行捕捉,或剪輯成視頻、或直接推流并開啟直播,就可以像往常一樣見到“愛醬”啦!

而將這一圖像進行捕捉,或剪輯成視頻、或直接推流并開啟直播,就可以像往常一樣見到“愛醬”啦!

既然愛醬的聲音和動作都是靠背后的聲優小姐姐“表演”出來的,那么,愛醬各種智障的表情又是如何制作出來的呢?

起初,我們猜測愛醬的表情是由FaceRig或類似的圖像識別軟件通過捕捉聲優小姐姐面部表情進行實時演示,比如說這樣:

4

但其實,愛醬的所有視頻和直播都沒有使用類似的技術!

但其實,愛醬的所有視頻和直播都沒有使用類似的技術!但其實,愛醬的所有視頻和直播都沒有使用類似的技術!

在KiLA的官方演示視頻中,我們發現,愛醬豐富的表情其實是官方提前為她準備的一大堆“表情包”,在聲優小姐姐進行配音并做出某些動作時,愛醬眼部的表情需要由另一位工作人員控制:

5

通過手柄控制愛醬的眼神、視線及其他眼部表情通過手柄控制愛醬的眼神、視線及其他眼部表情

而愛醬的嘴型,則是根據語音識別技術自動進行匹配(目前該技術已十分成熟)。

所以說,我們所喜愛的人工智障愛醬,其實是由兩個人共同協作來完成的!這也解釋了為什么愛醬在很多時候的表情都這么“智障”了(感情根本就不是一個人)!

看到這里,還有人會認為愛醬是一種人工智能嗎?

6

作為一個老司機,我可以非常明確地告訴你:愛醬的確是“人工”的,但她并不“智能”!不過,這并不妨礙大家對愛醬這一虛擬形象的喜愛!(來自:新浪VR)

更多精彩內容,關注青亭網微信號(ID:qingtinwang),或者來微博@青亭網與我們互動!轉載請注明版權和原文鏈接!
青亭網

微信掃碼關注青亭網

青亭網

青亭 | 前沿科技交流群01

責任編輯:
分享到QQ 分享到微信
后參與評論
切換注冊

登錄

忘記密碼 ?

您也可以使用第三方帳號快捷登錄

Q Q 登 錄
微 博 登 錄
切換登錄

注冊

河内一分彩app