永生的眼睛赏析,永生的眼睛讲述什么

首页 > 教育 > 作者:YD1662024-04-17 22:51:34

彼得在进行录音

这个过程比彼得想象的还要漫长。

他在录音室里待了30个小时,录制了数千条原声语音。之后,专业公司用语音克隆技术,制作了与彼得音色十分相近的合成语音,期间也经历了很多次返工。

为了让彼得2.0说出尽可能多的单词,他们采用了更复杂的“单元选择法”。“比如说,我从来没有录过‘一条’两个字,但是AI会帮助我把需要的音节拼起来,用我的声音读出来。”

拿到最终成果的时候,距离彼得第一次踏进这家公司,已经过去了一年多时间。

永生的眼睛赏析,永生的眼睛讲述什么(21)

正在做面部动作捕捉的彼得

与此同时,彼得还在忙活另外一件事——给自己制作一个“虚拟化身(Avatar)”。

这个技术通常会被使用在特效电影里面,化身和彼得长得一模一样,可以模拟他的面部肌肉,配合他说的话张嘴、闭嘴。

整个过程是在松木制片厂完成的,他们曾给《星球大战》和“007系列”做过特效。彼得的脸上被点上30多个标记点,“做尽了人能做到的所有表情,念了数不清的词条”,动用了50多台高清摄像机,把他的面部表情和肌肉动作保存了下来。

最后,将彼得的“声音”和“化身”结合在一起,一个可以说话、虚拟的“彼得”就诞生了。

这还不是结束。

理想状态下,彼得2.0还需要具有一定程度的自主性,彼得用眼睛打字的同时,AI可以预测他想说的单词和句子,自动生成一些备选,让彼得从中选择,“有点类似手机打字时的预测功能,但是更加高级。”

完成一段话后,彼得可以进行最终校对和润色,确认之后,文字会被转化成音频,在融合彼得的声音之后播放出来。

永生的眼睛赏析,永生的眼睛讲述什么(22)

面部肌肉还没有完全萎缩时的彼得

永生的眼睛赏析,永生的眼睛讲述什么(23)

初期的彼得2.0虚拟形象

彼得向我们解释说,他使用的是一种“可以自学”的AI,由英特尔的团队研发而成。

他们最新的突破,是让彼得2.0,根据不同参与者的身份和关系,来选择不同的回答方式。

“如果是一个陌生人问我,外面的天气怎么样,我就会如实告诉他。但如果是一个亲密的朋友这样问我,我就会说:‘你不会自己看吗?’”

有意思的是,霍金使用的也是这个AI系统,但彼得想要AI实现的目的,和霍金的完全相反。霍金希望获得完全的控制权,他所说和所写的内容,都要和他脑海中的一字不差。

但彼得是另一个极端。他毫不排斥和AI“共生”,甚至很期待AI可以“自学成才”。他把AI形容成一个即兴表演的演员,而自己是电影导演,“无论AI怎么表演,这仍然是我的电影。”

当然,彼得2.0也会犯错。彼得向我们讲述了一个,他从来没有对其他媒体讲过的故事。

彼得有一个好朋友名叫Jerry,一次他们在视频通话,Jerry提出了一个非常聪明的提案,彼得本想回复他:“You are incredible Jerry!(你真是太棒了,Jerry)”彼得2.0却自作主张,替他说出了“You are an incredible jerk!(你真是个大混蛋)”

彼得到现在都没搞清楚,彼得2.0是怎么学会说“混蛋”的,“我发誓我从来没有在它面前说过这个词,它要么是一个bug,要么是一种恶意的赛博幽默。”

永生的眼睛赏析,永生的眼睛讲述什么(24)

上一页23456下一页

栏目热文

文档排行

本站推荐

Copyright © 2018 - 2021 www.yd166.com., All Rights Reserved.