20种“AI犯罪”危险度大排名,Deepfake引领其他5种AI成新型犯罪催化剂

英国伦敦大学学院(University College London,UCL)发布新报告,确认并枚举未来15年AI人工智能可能潜在协助犯罪分子的不同方式。31位不同AI专家测试20种AI犯罪手法,并根据各种因素为这些手法排名。进一步来说,AI专家根据各种变量排名这些犯罪手法,如犯罪容易程度、犯罪可能造成的潜在社会危害、罪犯能赚到多少钱,以及阻止犯罪的难易程度。根据报告结果显示,深度造假(Deepfake)是对遵守法纪公民和社会普遍的最大威胁,因今后被罪犯和恐怖分子用来发动攻击的可能性极大。

Deepfake会让人们失去对网络的信任感,“AI犯罪即服务”将大行其道

AI专家将Deepfake评选为潜在AI威胁排行榜第一名,因Deepfake不但很难识别,且很难反制。Deepfakes甚至在欺骗Deepfake专家方面都越来越好,甚至其他侦测Deefake的AI方法也往往不太可靠。就危害能力而言,Deepfake很容易被恶意攻击者用来败坏受信任专家人物的名声,或冒充心爱的人或其他信赖的人诈骗特定个人。一旦Deepfake攻击泛滥,人们可能会开始对任何音频或视频媒体失去信任,这可能会使人们对真实事件和新闻的可信度失去信心。

UCL计算机科学系Matthew Caldwell博士是论文第一作者。Caldwell强调,随着越来越多活动转移到网络,Deepfake的危险也不断增长。UCL官网新闻引用Caldwell的话:

与许多传统犯罪不同的是,数字领域的犯罪可容易地分享、复制、再现,甚至出售,这使犯罪技术可推广,犯罪也能当作服务提供。这意味着犯罪分子可将最具挑衅战力的AI犯罪攻击手法外包给有心人。

团队将其他5种新兴AI技术列为“高度疑虑”的新形态犯罪潜在催化剂:自动驾驶汽车当成犯罪武器、黑客攻击AI控制的系统和设备、以勒索为目的的线上资料收集、具定制化消息的AI网络钓鱼,以及针对普罗大众的假新闻或假信息。

AI犯罪危险度分成高、中、低3种等级,未来网络将上演正邪AI大战

根据UCL道斯未来犯罪中心(Dawes Centre for Future Crimes)主任Shane Johnson表示,这项研究的目标是识别与新兴技术相关的可能威胁,并设想出应对这些威胁的方法。Johnson指出,随着技术变革速度加快,我们必须预测未来的犯罪威胁,以便决策者和其他有能力采取行动的利益相关者能够在新的犯罪发生之前采取行动。

关于榜单其他14项可能的犯罪,可分成两类:“中度疑虑”和“低度疑虑”。“中度疑虑”的AI犯罪包括军用机器人误用与滥用、资料下毒(Data Poisoning)、自动化攻击式无人机、基于学习的网络攻击、针对线上活动的阻断式服务攻击(DoS)、操纵金融/股票市场、“蛇油”(Snake Oil,是指以AI / 机器学习术语掩饰的诈骗式销售服务)、用假造图像愚弄骗过脸部识别系统等。

“低度疑虑”AI犯罪包括艺术伪造品或盗版音乐、AI协助式跟踪、AI撰写的假评论、规避AI侦测的方法,以及“闯空门机器人”(Burglar Bot,闯入人们家里偷东西的机器人)等。

当然,AI模型本身也可帮助打击犯罪。最近,AI模型已用于协助侦查洗钱勾当,以及侦查可疑的金融交易活动。操作人员会分析结果,然后批准或拒绝发警报,并利用反馈训练模型。未来可能会上演正义联盟与邪恶集团之间的AI大战,犯罪分子试图设计出最棒的AI犯罪工具,安全、执法和其他有道德的AI设计者试图设计最佳AI侦测与防御系统。

(首图来源:UCL)