微软首席科学家Eric Horvitz警告将出现新的Deepfake威胁

微软首席科学家Eric Horvitz在其最新的Deepfake研究论文中,提到需要注意两种新形态的Deepfake威胁,分别是互动(Interactive)以及合成(Compositional)Deepfake,同时他也预测,不久之后将会出现实际应用这两类Deepfake手法的攻击,并且对社会产生成本高昂的影响。

互动式Deepfake是利用多模态互动,来模仿具有真实互动行为的人,要构建互动式Deepfake系统,需要一组多模式互动技术,包括生成性人工智能方法,以高传真的方式渲染姿势、表情,甚至是语音。

MosaicML研究科学家Davis Blalock则在推特上,进一步说明了互动式Deepfake可能带来的实际影响,Davis Blalock提到,互动式Deepfake并非静态内容,可以让人产生与真人交谈的错觉。攻击场景可以发生在像是诈骗集团以晚辈身份拨打视频给家中长辈,利用晚辈的长相和声音骗取金钱等,恶意人士不只可以假扮成家人,也可以是任何熟人,但其背后实际上可能仅是一个机器人。

另一种合成Deepfake,则是Eric Horvitz更为担忧的攻击手法,因为可以创造出更大规模,更有影响力的虚假消息内容。有心人可以利用Deepfake策略性的与真实世界事件搭配,创造出精心编造的故事,而Davis Blalock解释,合成Deepfake可能被用来编造一场从未发生过的恐怖攻击,或是虚构的丑闻,甚至通过人造证据以及真实世界的行动,使阴谋论更加可信。通过现成的数字广告机制,还可以针对人们精准投放错误资讯。

Eric Horvitz在论文中提到,政府、企业、研究人员以及各组织,应通过各种方式准备和防御这两类Deepfake威胁的兴起。更为复杂的Deepfake应用将会提高人们对于新闻媒体的要求标准,同时阅听人也需要培养媒体识读素养,认识这些新威胁趋势成为重要的事。另外,他也认为,可能需要创建一种验证协议,在各种用例证明身份,并且在数字内容治理上,采用浮水印或是指纹,同时政府也需要制定法律监管,避免Deepfake技术被滥用等。