研究人员开展DeepFake AI 伪造音频攻防战,促进业界辨伪技术提升

时间:2023-07-10 19:12:57       来源:搜狐号-IT之家

IT之家 7 月 10 日消息,DeepFake 当下是一系列能够生成特定人物照片、视频及音频的 AI 模型总称,模型生成的各种信息相对可以轻松绕过各种企业机构的识别系统,因此也有许多黑产围绕 DeepFake 而展开,当下如何更精准辨识 DeepFake 生成的内容成为难题。

IT之家曾报道,加拿大滑铁卢大学的两名研究人员 AndreKassis 与 UrsHengartner 研发了新型语音 DeepFake 软件,成功欺骗语音认证系统概率高达 99%,该软件使用机器学习软件,只需要 5 分钟的人声录音,就可以模拟出非常逼真的人声。


(资料图片)

用户通过语音认证注册之后,会要求用户重复一个特定的短语或者句子。

系统会根据用户的声音提取声纹(语音指纹),并将其存储在服务器。

如果您将来尝试进行身份验证,系统将提示您说出不同的短语,并从中提取的特征将与系统中存储的语音指纹进行比较,以确定是否应授予访问权限。

▲ 图源 uwaterloo 网站

对于这一新型语音 DeepFake 软件,其他安全研究人员纷纷开始应对,亚马逊的研究人员尝试检查语音样本,来判断样本的真实性。

▲ 图源 Pindrop 网站

而 Kassis 与 Hengartner 打造出一个方法来绕过上述亚马逊的机制,该方法可辨识出合成语音中的标记,并自动移除这些具有 AI 特征的段落,令系统无法区分。

另一方面,专门开发语音身份认证安全机制的 Pindrop 则认为这一机制并不稳妥,即“虽然攻击方可以移除生成的语音片段中具有 AI 特征的段落,但防守方可以同时从多角度来判断音频文段的真实性,例如检测 IP 地址、要求提供特定的语音信息等”,因此依然可以检测出使用 DeepFake 的攻击者。

▲ 图源 Pindrop 网站

但研究人员 Pindrop 同时指出,现有用来对抗 Deekfake 语音的系统有许多缺陷,打造安全系统的唯一方式是像黑客一样思考。他同时建议那些只仰赖语音进行身份认证的企业,应该部署额外的认证措施,以防止企业受到诈骗,导致经济损失。

关键词: