Facebook的缅甸新算法,是为防治假新闻或暗助拜登?

最近,拜登儿子“电邮门”报道意外遭Facebook与Twitter两大社交平台降低传播,引起轩然大波,两方首席执行官不得不亲上火线,将在11月中旬出席国会听证会。也有不少网友质疑,Facebook此时祭出新算法,名为防治假新闻,但是否暗地支持拜登?

美国大选逼近,Facebook此时祭出新算法,究竟为哪桩?根据业内人士与多家外媒分析指出,Facebook此举,应该不至于有特定政治立场,而是在大选期间试行最新的假新闻防治工具而已。

据《Fortune》指出,Facebook这几个月正在测试一种全新的假新闻防治工具“病毒式传播内容审查系统(viral content review system)”。据说,这个新工具可以有效降低网上一些可能是假新闻的病毒式传播速度。

由于今年最关键的议题是美国大选与疫情,因此政治和健康这两大类新闻已最先被Facebook锁定降低传播。拜登“电邮门”报道只是其中之一而已。

缅甸团队研发Facebook新算法,如何防治假新闻?

这个全新的假新闻防治算法,到底怎么运行?

根据美国政治智库GMFUS的专家Karen Kornbluh指出,那有点像是华尔街用来防治闪电崩盘的断路机制:锁定一些操作频率太高的交易,延缓或暂停成交。Facebook也会锁定一些有涉及到敏感主题、传播速渡过快的网上新闻内容,先拖慢它的传播速度,等人工言论审查完成,再决定是否还他清白,让它继续传播。

这个做法确实改善了以往Facebook言论审查速度,根本来不及赶上假新闻传播速度的问题,有时候伤害都已经造成。

像是在缅甸,就曾发生当地网军用Facebook假账号散播罗兴亚人恶行的假新闻,不但成功引导人们认为当地军方的种族灭绝行动是正确,还有人因此误信而主动杀害罗兴亚人。这个新工具,据《TechSpot》指出,最初也正是由Facebook缅甸团队研发。先在缅甸测试,最近几个月再试行到全球。

罗兴亚难民(Source:Flickr/UK Department for International DevelopmentCC BY 2.0)

Facebook很无辜?其实被自己的增长目标绑架

至于针对今年处理大选、疫情等各类争议新闻做法,Facebook是否真的很无辜?一位曾任职Facebook总部的业内人士指出,Facebook处理假新闻不够力,确实值得检讨。但这个公司的真正问题,与其说是被政治团体把持,更应该是被自家的数据增长目标给绑架了!

在公司内部开会讨论产品策略时,声音最大的,常常是驱动用户数增长类型的人才。他们欠缺同理心去了解外界用户真实观感,只求完成目标。所以,才会等到美国有千家企业,决定暂停Facebook广告播放以抵制Facebook散播仇恨言论;或像缅甸都已闹出人命,公司高层才积极因应,动作永远慢好几拍。

而能反映出Facebook企业文化问题的另一线索,就是近日Facebook首席营销官安东尼欧‧卢西奥(Antonio Lucio)的黯然离职。

曾成功为百事可乐、VISA打响品牌的他,两年前是因Facebook面临剑桥分析事件危机,被扎克伯格积极挖角来救援。卢西奥在刚上任时,也曾在公开受访时强调,Facebook亟需重建与外界的互信,不能光靠花俏宣传手段,而必须付出真心且具体的行动。

可惜,这两年来他苦无建树,而Facebook仍因常散播假新闻,以及未及时下架川普谈疫情的明显误导言论而被许多人诟病。最后,卢西奥选择在今年7月,也就是Facebook被千家企业抵制暂停广告投放的尴尬时刻离开。

至于,Facebook在美国大选后,还会积极采用这个新工具吗?不少业界人士对此采取保留看法,毕竟,降低各种病毒式传播内容的速度,也会让Facebook以往靠引导网友狂分享,来驱动用户交互的核心策略施展不开;肯定会连带影响它的广告效益与收入。

Facebook真的会甘愿牺牲增长来换取好形象?

当然,也不能全部排除Facebook仍有私下操控的嫌疑,就等待11月17日国会听证会上扎克伯格的回应。只可惜,美国届时应已确定下一任总统人选,社群操作大选的议题很可能又是船过水无痕。