您的位置首页 >网络行情 >

启用AI的语音正在克隆下一个大型安全骗局吗?

一家专门检测语音欺诈的公司正在发出警告,警告即将出现的威胁。Pindrop的首席执行官Vijay Balasubramaniyan表示,借助基于AI的软件,网络犯罪分子开始克隆人们的声音进行诈骗。

Balasubramaniyan在RSA的一次演讲中说,Pindrop在过去一年中还调查了大约十二起类似的案件,涉及欺诈者使用AI驱动的软件“掩盖”某人的声音以进行诈骗。

他说:“我们开始看到Deepfake音频作为一种针对特定扬声器的方式,特别是如果您是公司的首席执行官,并且那里有很多YouTube内容,”“这些欺诈者开始做的就是使用它来开始合成您的音频。”

该计划基于一种称为企业电子邮件泄露的经典攻击,欺诈者将使用假电子邮件伪装成公司的高级官员。目的是欺骗下级员工,向欺诈者的银行帐户发送大量资金请求。

假冒他人的声音可以使该方案更上一层楼。Balasubramaniyan说,即使在电话中听到CEO的声音,也可以说服您遵守订单并满足巨额资金要求,即使这可能不合法。

他补充说:“您只需要听某人的音频五分钟,就可以创建一个相当逼真的克隆体。”“如果他们的音频有五个小时或更长时间,那么您可以创建人类无法感知的东西。”

在其中一个被调查的案件中,巴拉苏布拉马尼扬(Balasubramaniyan)说,受害人的首席执行官实际上很少公开露骨的声音。但是,首席执行官确实在他的公司每月举行一次全体会议,将其记录下来,随后暴露在违规情况下。Balasubramaniyan补充说:“然后,他们(骗子)开始使用这种音频内容来合成他的声音。”

好消息是,与其他涉及身份盗用的电话相关骗局相比,深造威胁仍然很小。也就是说,真正克隆声音的技术已经存在(但幸运的是尚未广泛使用)。在他的演讲中,Balasubramaniyan演示了公司创建的内部系统,该系统用于综合公众人物的声音。他炫耀了它,深深地欺骗了唐纳德·特朗普总统的声音,说美国应该给朝鲜一个“血腥的鼻子”。

该技术的工作原理是在互联网上搜索Trump以前的录音以模拟他的声音,这一过程不到一分钟。Balasubramaniyan补充说:“您可以生成任何类型的音频内容,并按需创建。”(去年,人工智能研究人员展示了一个类似的概念,即真实地克隆了播客主持人乔·罗根的声音。)

显然,威胁令人不安。除了欺诈之外,音频深造还冒着传播错误信息的风险,这种错误信息会欺骗公众。幸运的是,Pindrop和其他计算机科学家正在研究检测深层伪造的解决方案。在Pindrop的情况下,该公司创建了一种AI驱动的算法,该算法可以从Deepfake音轨中辨别人类语音。它通过检查口语实际上是如何发音以及它们是否与人类的语音模式匹配来实现的。

他补充说:“我们开始寻找畸形。”“他说话的速度(甚至是人类可能做到的吗?)”

尽管如此,迫在眉睫的音频深造威胁可能会迫使用户在将语音上传到互联网时更加谨慎。Balasubramaniyan预测,反语音克隆安全服务可能会有一天,就像数据安全一样。他说:“您将拥有创建检测这些攻击的机制的公司。”“如果出现不是您的版本,这些系统就需要开始保护您的音频内容。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。