Meta更新多项功能,守护青少年网络安全及数字隐私

Meta今宣布于Facebook及Instagram推出更新,以保护青少年远离网络危害,包含限制拥有可疑账号的成年人与青少年进行联系、提供举报工具与安全通知,以及更新Facebook青少年的隐私默认内容等等,为青少年打造安全、适龄的使用体验。

限制扰人的互动

Meta于去年分享了保护青少年网络安全的相关措施,若一个成年人的账号于短期内曾被青少年举报或封锁,这个账号将被列为潜在可疑账号,系统会限制该账号发送消息给尚未成为好友的青少年,这些潜在可疑的成年人账号的“你可能认识的朋友”建议中也不会出现青少年。

除了现有的措施,Meta也正在测试以下功能,包含限制青少年发送消息给尚未成为好友的可疑账号、避免在青少年的“你可能认识的朋友”建议中显示可疑的成年人账号等等。Meta也正在进行系统测试,当潜在可疑账号在浏览青少年的Instagram账号时,页面上的发送消息按钮将被移除,更进一步的保护青少年。

鼓励青少年使用安全工具

Meta开发了多种安全工具,让青少年在使用应用程序时,能够即时反馈让他们感到不自在的内容,同时也推出新通知,鼓励青少年在需要的时候使用这些工具。举例来说,在青少年封锁用户时,系统会提示他们举报此账号,并发送安全通知,提供青少年关于如何应对来自成年人不当消息的资讯。2021年,短短一个月内共有超过1亿人在Messenger增至到了安全通知;在调整举报工具使其更容易让大家找到后, 2022年第一季度青少年在Messenger和Instagram消息上发送的举报数量,相较于上一季度增加了70%以上。

Facebook青少年的隐私默认内容更新

即日起,未满16岁(特定国家/地区为18岁)的青少年注册Facebook账号时,系统将默认为更具保护性的隐私设置,Meta也鼓励已使用Facebook的青少年,将以下隐私设置调整至更具保护性的选项:谁可以查看朋友名单、谁可以看到关注的用户、粉丝专页和兴趣清单、谁可以在个人文件增至到被标注在内的贴文、查看被标注在内的贴文,决定是否让其显示在个人文件上、谁可以在公开贴文上留言。

新工具防止青少年私密图片散播

Meta与美国国家失踪及受虐儿童援助中心 (NCMEC) 合作,为担心自制私密图片在未经同意的情况下被公开传播的青少年打造一个全球技术平台,此平台能在不当图片被看到前自动移除,这个预防机制类似于Meta为了防止成年人的私密图片遭未经同意分享所做的行动,协助防止青少年的私密图片遭发布在网络上,同时也可以提供给其他科技公司使用。

此外,Meta也与Thorn及其旗下品牌NoFiltr合作,目标是通过教育资源降低对于私密图片的羞愧感与负面想法,支持已分享这类图片或经历性勒索的青少年寻求协助并取回控制权。

据观察,上传具儿童剥削内容而遭Meta向NCMEC举报的用户中,有超过75%是基于愤怒、自以为幽默或厌恶等情绪,而非有意进行伤害。因此,Meta推出全新的PSA宣导活动,提醒大众在网络上转贴这些图片前先停下来想一想,并改为举报这些内容。

此外,在Facebook安全中心内,可以找到Meta与Thorn共同开发的性勒索防治中心,以及在“家庭中心”的教育中心中,Meta提供家长如何与青少年谈论私密图片的指南。