为了进行更加逼真的互动,研究人员为机器人的眼睛配备了高分辨率摄像头。
因此Emo还可以做到眼神交流,这也是非语言交流中重要的一部分。
此外,研究小组还开发了两个人工智能模型:一个是通过分析目标面部的细微变化来预测人类的面部表情,另一个使用相应的面部表情生成运动指令。
为了训练机器人如何做出面部表情,研究人员将Emo放在相机前,让它做随机的动作。
几个小时后,机器人学会了他们的面部表情和运动指令之间的关系。
团队将其称为「自我建模」,与人类想象自己做出特定表情的样子。
然后,研究小组为Emo播放了人类面部表情的视频,通过逐帧观察并学习。
经过几个小时的训练后,Emo可以通过观察人们面部的微小变化,来预测他们的面部表情。
这项研究主要作者Yuhang Hu表示,「我认为,准确预测人类面部表情是人机交互(HRI)的一场革命。传统上,机器人的设计并不考虑人类在交互过程中的表情」。
「现在,机器人可以整合人类的面部表情作为反馈。当机器人与人实时进行共同表达时,不仅提高了交互质量,还有助于在人类和机器人之间建立信任。未来,在与机器人互动时,它会像真人一样,观察和解读你的面部表情」。
接下来,一起看看Emo背后设计的具体细节。
技术介绍
机械控制结构