“身边的数据安全风险”
我们是数据的创造者,或许也是数据陷阱的受害者。泄露风险无处不在,为避免垃圾短信、*扰电话,防止落入骗局,保护财产名誉,关注身边的小数据,守护数据安全势在必行。
随着AI技术发展不断提速,不少人尝试利用相关工具协助处理工作、生活中的很多问题。不过新技术也被一些犯罪分子利用。网络安全公司McAfee今年4月面向7个国家开展的一项调查结果显示,10%的成年受访者曾遭遇AI语音诈骗,另有15%表示知道其他人遭遇过类似骗局。
南都大数据研究院留意到,利用AI技术进行语音诈骗的案例并非近期新发。早在2021年,我国公安部网安局就公布过类似案例。且随着AI技术应用门槛不断下降,近期国内部分互联网平台也陆续有网民发布基于明星语音素材训练而成、几可乱真的AI音视频。
调查显示10%受访者
曾遇AI语音诈骗
在最新技术的加持下,AI合成语音正越来越逼真,对话效果越来越好。不过新技术也被一些犯罪分子利用。McAfee今年4月面向美国、英国、法国、德国、澳大利亚、印度和日本7个国家的7054名成年受访者开展调查。结果显示10%的成年受访者曾遭遇AI语音诈骗,另有15%表示知道其他人遭遇过类似骗局。
McAfee调查结果显示,10%的成年受访者曾遭遇AI语音诈骗。(图据McAfee调查报告)
调查结果显示,不法分子主要利用AI语音合成技术给受害者留下假的语音邮件,或者冒充他们的好友打电话给他们,以遭遇车祸、抢劫等借口诱骗受害者转账。在受害者中,有77%表示在诈骗中损失了钱财,其中三分之一表示损失了超过1000美元,更有7%表示损失了5000-15000美元。
McAfee首席技术官SteveGrobman称:人工智能带来了难以置信的机会,但任何技术都有可能被恶意使用。这就是我们今天所看到的,AI工具的获取和使用变得越来越容易,也让网络犯罪分子能够以更加难以识破的方式进行诈骗。
南都大数据研究院监测发现,AI语音诈骗正呈高发趋势。据央视财经综合多家外媒报道,近期美国和加拿大各地使用AI合成语音进行电信诈骗的案例多发,不少上当的都是老年人。加拿大警方称,最近加拿大各地都有不少类似案件发生,涉案金额已达数百万加元。有受害者表示,犯罪分子使用的声音和她儿子的声音简直一模一样。
今年3月,美国联邦贸易委员会(FTC)针对AI语音诈骗问题发出警示,提醒公众接听电话时留心判断对方是真人还是AI语音,并建议通过主动回拨等方式验证来电真实性。
美国联邦贸易委员会针对AI语音诈骗问题发出警示。
AI“老板”“好友”口音逼真
国内已有相关案例
南都大数据研究院留意到,利用AI技术进行语音诈骗的案例并非近期新发。早在2019年,《华尔街日报》就曾报道,有诈骗分子利用AI模仿了英国某能源公司的母公司CEO声音,成功让该能源公司高管相信自己正在与母公司的老板通电话,并诱骗其通过匈牙利供应商向诈骗分子转账22万欧元。被骗高管表示,在整个通话过程中,老板的德国口音非常逼真,使其对声音的真实性没有任何怀疑,直到被要求再次转账时才发觉了事件异常。在立案调查后,警方发现资金被转到匈牙利供应商的银行账户,随后又转往墨西哥和其他地方,但嫌疑人的具体身份无法确定。
在国内,也有媒体曾于2019年报道不法分子利用AI技术制作真人语音,然后通过社交平台冒充受害者好友骗取钱财。据新华社报道,2019年9月,市民陈先生收到朋友的一条微信语音,提出借款5000元。因为收到“货真价实”的语音,陈先生并未怀疑,马上通过微信向其转账。“好友”见状又问陈先生可否再转9000元。陈先生才警觉起来,通过电话联系该名好友,发现自己上当受骗。经警方初步了解,诈骗分子通过获取陈先生好友微信账号、密码及语音等信息,博取陈先生信任后,以“朋友”微信及语音对其进行诱骗。
2021年初,公安部网安局曾发文提醒公众,注意防范合成声音和AI换脸等人工智能新型诈骗手段。据公安部网安局公布案例,2020年12月,国内某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内完成转款,后发现被骗。
提供3秒音频
即可克隆特定人物声音
有业内人士指出,其实AI语音合成技术应用已久,例如地图导航的明星语音包便利用了类似技术。但以往制作这类语音包时,通常要求说话者在安静环境下念出一定量的录制文本,例如一篇5-10分钟的文章,供AI获取足够多的发音特征,再进行合成;如果遇到说话者没读过的生僻字,AI就可能出现发音失真等问题。不过随着技术不断发展,如今AI已可对发音进行一定的推理模仿,即使是说话者从未读过的字眼,也能模仿出相似音色,因此对语音素材要求不断下降。越来越低的技术应用门槛确实给不法分子提供了可乘之机。
McAfee调查报告也指出,其安全研究人员在互联网上发现了十几种AI语音合成工具。研究人员使用其中一种工具进行测试,发现只要提供3-4秒的录音,这个免费AI工具就能创造出一个约有85%相似的克隆人声。
虽然风险显而易见,但AI语音合成技术的发展仍在不断提速。今年1月,微软团队发布一个AI语音合成模型VALL-E。据介绍,该模型只需要说话者读出3秒指定内容的音频作为训练素材,即可精确地模拟说话者的声音。从已公开的合成语音效果来看,VALL-E不仅能还原说话者的音色,还能模仿说话者的愤怒、困倦、愉悦等多种情绪,甚至连说话者的环境背景音也能准确还原。
微软也意识到该模型可能助长恶作剧和欺骗的可能性。在相关论文中,微软表示“由于VALL-E可以合成符合说话人身份的语音,因此滥用模型可能会带来潜在风险,例如欺骗语音识别或冒充特定说话人。为了降低此类风险,可以构建一个检测模型来区分音频剪辑是否由VALL-E合成。在进一步开发模型时,我们还将把微软人工智能原则付诸实践。”