假如人工智能可以完美模拟人声,二次元是不是更近一步了?

今天让我们来遥想一件未来的事情,可能会显得没有边际,不过确实令人有许多想象。
大家都知道,赋予动画角色灵魂的其实就是声优,动画角色“动起来”,除了靠绘画外,还有一部分的“演技”,靠的就是声优。是声优的演技演活了一个角色,而一些经典的角色背后,人们往往会默认把最成功的那位声优的声音和角色进行绑定。

例如,《灼眼的夏娜》中的夏娜,很多观众会默认觉得这个角色的灵魂就必须是钉宫理惠来配音,当然这并不绝对,只是绝大多数的观众会有如此的念想;那么问题来了,既然角色被声优绑定,那么这样说来,加入一个角色N年后,因为声优不干了或者什么原因而不得不换了声优,你还会认同这个角色吗?用这种认定的方式,你会觉得,二次元角色其实是被三次元的声优所绑定的,只是三次元一种独特的语气,可能是中二,可能是缓慢柔和的语速,总之,这会让人二次元脱不开真人的表演,这也可能是让大家觉得,尽管是二次元,但实际上还是脱不开现实世界的诠释而获得一丝真实感?

那么你们有没有想过,假设,声优的这种声优,来自一个非人类的AI?是不是,我们喜欢的二次元角色,会彻底的脱离现实世界的束缚?

大概是去年的时候,我就看到户松遥的声优在某个APP程序还是在线程序里,可以用AI去模仿,这似乎是获得了她的认可的,不过目前的技术模仿出来的声优多少还是有些机械的味道,但我相信随着技术的进步,机械的味道肯定可以越来越少,当然,要真的达到人类朗读的那种自然感,我觉得可能没个10年都不太会令人信服;
但是,10年后呢?当人工智能逐渐又弱转到中期,甚至因为某些技术的门槛被跨越而不断飞跃的时候,例如量子计算机被引入人工智能的时代,是不是,机器去模拟人声的发音和节奏变得非常逼真,到时候,是不是只要脚本设置好,人工智能就可以非常自然地读完整段动画的剧本,而显得没有“不是人类”的破绽感。

那么当声优的声音,都可以随意由AI来取代,那么声优这个职业会不会被取代?这听起来似乎很遥远……但对于二次元的玩家来说,如果人工智能的配音可以取代声优,也就意味着,一些作品无论过去多少年,无论这个声优是不是还在就职,都可以听到这个声优的声音,20年过去,30年过去,人们依然可以听到他们的声音活跃在现场,并且脱离了声优这个人,还得到更多的延伸……至少对于同人来说,是一些人梦寐以求的情况,想想同人的作品里,可以听到那些一线声优的声音……这不是一件很美的事情?前提是,法律允许的前提,但是法律,又能如何去判断,这声音,到底来不来自己某个声优,我说我的AI只是发声很像某位声优呢?所以,这根本无从判断……
到时候,二次元的声音,就真的只是来自一个虚构的次元,只是电脑处理下的语音,他们可以没有感情,但却可以模仿人类的感情,去念句子,我们是不是真正的可以脱离三次元的束缚,通过VR等沉浸式的设备,去打造真正的,没有三次元干预的二次元世界?这些技术的成熟,真的给人们带来了无限的想象空间……

