Mozilla调查:反感视频有71%是来自于YouTube的推荐算法

Mozilla本周公布了为期长达8个月的YouTube视频调查报告,该调查是通过浏览器扩展程序RegretsReporter,由用户自愿参与及安装,并在遇到令人反感的YouTube视频时回应。调查发现,在用户回应的反感视频中,有71%是由YouTube推荐的。

RegretsReporter是个开源扩展程序,支持Firefox与Chrome浏览器,总计有来自全球190个国家的37,380名用户安装了该程序,不过,从2020年7月到2021年5月间,只有1,662名用户提交了3,362份报告。

调查询问了用户遇见反感视频的途径,有71%回应是来自YouTube算法的推荐;而在这些由YouTube推荐的视频中,有9%,大约200个直接违反了YouTube的社群政策,因为它们随后就被YouTube删除了,然而,这些视频在被移除之前,已创下了1.6亿的观看次数。

另一个值得观察的是,调查也发现非英语系国家的YouTube用户,遇到反感视频的几率高于英语系国家。

用户所提报的令人反感的视频,涵盖了传播疫情恐惧的内容、错误的政治信息、不适当的儿童卡通,以及与暴力、仇恨及诈骗相关的内容。此外,有些内容虽然并未直接违反YouTube政策,却游走于政策边缘。

Mozilla分析,相较于用户自行搜索的视频,由YouTube主动推荐的视频被视为反感的几率多出了40%,此外,由YouTube推荐的反感视频中,有43.6 %与用户先前观看的视频完全无关。

Mozilla资深经理Brandi Geurkink指出,YouTube应承认自己的算法会伤害及误导人们,该研究证实了YouTube不仅是个托管平台,还主动推荐违反该平台政策的视频给用户,而且该报告很可能只是冰山的一角,希望大众及立法者能够督促YouTube扩大其AI算法的透明度。

总之,Mozilla认为YouTube的推荐算法大有问题,而且可能存在歧视问题,呼吁包括YouTube在内的各大平台,都应该公布推荐算法的透明度报告,并允许用户退出个人推荐系统,创建推荐AI的风险管理机制,也建议立法者推动一个能够促进AI系统透明化的法令。