iOS 15自动模糊照片 阻儿童色情内容传播

Apple一向重视隐私,近日更推出新“儿童保护”政策并引入3项全新机制,自动侦测iPhone、iCloud可能存在的儿童色情图片,期望能同时兼顾隐私及避免儿童色情内容外流。功能预计于最新版本的iOS 15、iPadOS 15及macOS Monterey推出。

近日,Apple宣布推出“儿童保护”(Child Safety)政策,新政策将会引入3项全新机制。Apple将会采用与Google、Microsoft类似的做法,系统将会主动将可疑照片数据通过新的密码学程序转换为不可读取的数值,并仅存储于用户设备中。同时,系统也会在上传至iCloud的过程中进行儿童色情内容检查。

若有绑定家庭账号,家长将会于Apple设备内置的Messages上收到通知,而当儿童收到色情内容时也会为照片进行模糊处理并弹出警示。而Siri和搜索系统也会在儿童搜索儿童色情相关内容时,弹出提醒并主动解释行为不恰当,同时为用户提供咨询渠道。而迢项功能预计在最新版本的iOS 15、iPadOS 15及macOS Monterey推出。

数据源:9TO5MAC

发表评论