品玩8月6日讯,据TechCrunch报道,苹果公司周四表示,该公司将向执法部门报告上传到其美国iCloud服务上的儿童性虐待图片。
苹果公司的新系统将使用一种名为“哈希”(hashing,把任意长度的输入通过散列算法变换成固定长度的输出)的进程,对所谓的“儿童性虐待材料”(Child Sexual Abuse Material,简称为“CSAM”)图片进行监测,随后将图片转换为与其对应的唯一数字。
苹果公司周四开始测试该系统,但该公司表示,大多数美国iPhone用户都要到今年晚些时候iOS 15更新后才能使用这个系统。
在苹果公司采取这项举措之前,其他云服务也已采取类似措施,对用户文件进行扫描(通常也都使用“哈希”系统)以发现违反其服务条款的内容,其中包括儿童性虐待图片等。
与此同时,这也是对苹果公司的一次考验。苹果公司表示,与之前消除儿童性虐待非法图片的方法相比,该公司的系统对用户来说更加私密,原因是其在苹果公司的服务器和用户设备上都使用了复杂的密码系统,而且不会对实际图片进行扫描,只会扫描“哈希”。