技术的重点是辨识出音色与音调,而不是说话内容。
据国外媒体报道,苹果在其机器学习刊物《Apple Machine Learning Journal》上发表最新一篇文章,主要是描述了用户在IOS设备上激活“嘿Siri”功能时的人性化过程,引入说话者识别研究技术, 利用深度神经网络技术,重点辨识音色与音调,以帮助用户最终成为该设备的主人。
“嘿Siri”功能在iPhone6搭载的IOS8中首次推出,现如今,“嘿Siri”口令已经可激活设备上所有的智能私人助理。 但是,即便经过几年的发展,“嘿Siri”也依旧存在很多问题,例如会在不经意间被激活、其他人激活等。 为了解决这些问题,苹果Siri团队表示,新引入的“说话人识别系统”,主要是为用户创造更加人性化的设备。但目前该技术还存在一些问题,例如不能在混响(如大房间)和嘈杂环境中获得更精确的声音。
未来,苹果Siri团队将继续通过机器学习技术,在各种环境下对Siri进行训练,如车里、厨房、咖啡店等公共场所。此外,Siri还会学习识别各种情景下用户发出的声音状态,不局限于最初录入的声音,包括正常的声音,很高、很亮的声音,或者早上起床昏昏沉沉时的声音等。
最近,Siri隐私漏洞的问题备受关注。因为在该漏洞下,任何人都可以通过Siri来读取设备主人的通知,只要按住HOME键或iPhone X的侧边按键几秒,唤醒Siri后,喊下“帮我读下通知”,它就会直接读出锁屏上的隐藏消息内容。无论是同事、家人,甚至是路人都能执行相同的操作,而且是在设备锁屏情况下。
本文来自镁客网,创业家系授权发布,略经编辑修改,版权归作者所有,内容仅代表作者独立观点。[ 下载创业家APP,读懂中国最赚钱的7000种生意 ]