找出坏份子!Facebook用AI模拟用户的不良行为,研究诈骗消息的传播途径

Facebook的工程团队使用AI技术,模拟用户在Facebook上的“不良行为”,这些行为包含传播垃消息、诈骗或买卖非法物品。模拟环境被团队命名为“WW”,经过训练的AI机器人能在其中自由交互。

这项研究由工程师Mark Harman与Facebook位于伦敦的AI部门进行,团队创造了一个“影子Facebook”,名为“WW”(团队表示WW是较小规模的万维网WWW),创建在网络模拟(Web-Enabled Simulation,WES)的概念之上。

WES能创建一个高度拟真的复杂社交网络,在此环境中能创造数以百万的机器人,并让它们自由社交。WW是基于Facebook源码构建而成,因此模拟环境几乎跟真实版的Facebook相同。

Web-Enabled Simulation is the first method for building realistic, large-scale simulations of complex social networks. We built a WES test environment using production code so we can better detect harmful behavior before it affects people in the real world.https://t.co/Qdhh22atMUpic.twitter.com/OS5a1fwagl

团队使用机器学习训练AI机器人,让它们模拟人类的真实行为。经过训练后,机器人可以进行与近似人类的社交活动,像是发废文、点赞、留言当酸民、送出好友邀请等等(值得一提的是,AI模拟的行为并不完整,它们并不会模拟出实际的对话内容)。

在现实中,诈骗通常是从的用户的朋友圈下手,因此团队会训练“坏份子机器人”,让它们锁定一些“无辜机器人”当作目标,并跟它们进行交互。团队会试着侦测这些不良行为,并阻止它们继续危害更多用户-跟现实中的Facebook相同,只是没有人真的因此受骗。

团队会训练“坏份子机器人”,让它们锁定一些“无辜机器人”当作目标,并跟它们进行交互。

模拟环境当然也有局限性,像是无法模拟复杂的行为。但WW的优势在大规模运行的能力。WW可以一次跑数千个模拟,测试各种对网站的细部变动。最重要的是,不会影响现实的用户。

目前WW正处于研究阶段,这些使用AI模拟的结果,都没有对现实的Facebook作出改变。Harman表示,他的团队仍在分析模拟环境是否能反映真实的行为。但他同时认为,团队的研究结果将在年底前实际应用于Facebook。

WW可以借由使用不同的方式训练机器人,例如:

最后一种方式称为无监督学习(Unsupervised Learning),因为机器人可能会有意料之外的行为,工程师能借此发现Facebook的新弱点。

工程师Mark Harman表示:“目前的研究重心,是训练机器人模拟现实Facebook平台上会发生的事。但无论从理论或从实务上来看,这些机器人都可能作出我们前所未见的事。”

在开放的社交平台上,我们永远无法完全预测用户的行为。但Facebook AI团队的最终目标,是“超前部属”,运用模拟技术率先预测可能发生的场景,在新的不良行为出现前找到阻止的方法。

数据源:

Facebook is simulating users’bad behavior using AI

A Facebook-scale simulator to detect harmful behaviors

(首图来源:VentureBeat)