Facebook、Instagram强化多项功能,守护青少年网络安全和数字隐私

Meta已宣布在Facebook、Instagram推出更新,以保护青少年远离网络危害,包括限制拥有可疑账号的成年人与青少年联系、提供举报工具与安全通知,以及更新Facebook青少年的隐私默认内容等,要为青少年打造安全、适龄的使用体验。

限制可疑成年人的互动

Meta去年分享了保护青少年网络安全的相关措施,若一个成年人的账号短期内曾被青少年举报或封锁,这个账号将被列为潜在可疑账号,系统会限制这个账号发送消息给尚未成为好友的青少年,而且“你可能认识的朋友”建议也不会出现青少年。

除了现有措施,Meta正在测试以下功能,包括限制青少年发送消息给尚未成为好友的可疑账号、避免在青少年的“你可能认识的朋友”建议中显示可疑的成年人账号等等。还有当潜在可疑账号在浏览青少年的Instagram账号时,页面上的发送消息按钮将被自动移除,进一步保护青少年。

鼓励青少年使用安全工具

Meta开发了多种安全工具,让青少年在使用App能够即时反馈让他们感到不自在的内容,同时也推出新通知,鼓励青少年在需要的时候使用这些工具。举例来说,当青少年封锁用户时,系统会提示他们举报这个账号,并发送安全通知,提供青少年如何应对来自成年人不当消息的资讯。

在2021年,短短1个月内共有超过1亿人在Messenger增至到安全通知。在调整举报工具使其更容易被找到后,2022年第一季青少年在Messenger和Instagram消息上发送的举报数量,相较上一季增加70%以上。

青少年的Facebook隐私默认内容更新

现在未满16岁(特定国家和地区则为18岁)的青少年注册Facebook账号,系统将默认为更具保护性的隐私设置。Meta更鼓励已使用Facebook的青少年,花点时间将以下隐私设置调整至更具保护性的情况,而不至于太过公开:

新工具防止私密图片散播

Meta致力于防止青少年的私密图片在网络上散播,特别是针对使用图片剥削青少年的行为(通常称为“性勒索”)。当私密图片在未经同意便遭到散播时,必定对青少年身心造成严重创伤。

Meta与美国国家失踪及受虐儿童援助中心(National Center for Missing and Exploited Children,NCMEC)合作,为担心自制私密图片在未经同意的情况下被公开传播的青少年打造一个全球技术平台,该平台能在不当图片被看到前自动移除,这个预防机制类似于Meta为了防止成年人的私密图片遭未经同意散播所做的行动。

此外,Meta也与开发技术保护儿童免受性侵害的非营利组织Thorn以及旗下品牌NoFiltr合作,目标是通过教育资源降低对于私密图片的羞愧感与负面想法,支持分享这类私密图片或经历性勒索的青少年寻求协助并取回控制权。Meta也推出全新宣导活动,提醒大众在网络上转贴这些图片前先停下来想一想,并改为举报这些内容。

(图片来源:pixabay)