这是 5 月 27 日的卫星新闻。
Facebook 全球安全主管 Antigone Davis 于 22 日发布帖子称,他带领的团队正在努力阻止报复性裸照出现在 Facebook、Instagram 或者 Messenger 上。
他们近期的努力是,计划向用户征集私密照片,以便可以阻止后续类似照片被他人上传。
该实验项目上周开始在澳洲、加拿大、英国和美国测试。Facebook 在这件事上与各国的公益组织、政府机构合作,包括英国公益机构报复性色情内容帮助热线、澳洲电子安全专员办公室等。
具体流程是这样的:当 Facebook 用户担忧个人私密照片可能在未知的情况下被上传,他们可以联系这些与 Facebook 合作的机构,后者将要求用户填写表格表述其忧虑的事情,并将一个一次性图片上传工具通过邮箱发送给该用户。
用户将其私密照片上传后,Facebook 社区运营安全团队的一名员工将审核这份表格,并对照片计算哈希值作为识别照片的数字记录。经过处理后,原图将在 7 日内从 Facebook 的服务器上移除,原图的哈希值将被保留,作为审核后续类似照片的数据。
这是 Facebook 此前尝试的延续。2017 年 11 月份,Facebook 宣布与澳洲电子安全专员办公室合作,推出了这个试点项目。现在 Facebook 将其推广到了更多国家。
总的来说,这是 Facebook 为了保护用户隐私的一部分努力。去年 4 月份,Facebook 还向用户推出了举报按钮,允许用户举报他人未经允许上传的私密照片。Facebook 的安全团队接获报告后,将对照片进行审核,随后会将其删除。此外,安全团队也会使用照片匹配技术,阻止后续类似照片继续传播。
这次利用照片的哈希值来识别类似照片,也就是照片匹配技术的一种,在 Facebook、微软、Twitter 等科技公司内其实已经比较流行了。
但在删除色情、裸露照片,以及报复性裸照上,Facebook 强调的反而不是像人工智能、人脸识别这样的技术积累,而是依靠人力、依靠用户。Facebook 从 2010 年开始使用人脸识别技术,可以快速帮用户找出上传照片中的好友人脸。
在打击报复性裸照这件事上,Facebook 采取了一种更超出常识、也带来更多质疑的作法:向用户征集裸照,这本身就存在侵犯个人隐私的可能性。
此外,Facebook 虽然声称,用户提交的报告、原图将由专门的社区运营安全团队审核,但未能就数据备份、确保数据不外泄做出承诺,例如该团队成员是否能够用手机翻拍原图。
还有个人力成本的问题。如果现在的试点项目持续推进,那就意味着,社区运营安全团队一部分工作内容接近于色情片的审查员了。这在人力成本高的美国看上去不太现实。
这与此前用户举报的机制不同。Facebook 过去强调更多的是它靠社群机制来完成。Facebook 号召用户将这些已经流传的照片标记出来,再将由审核团队审查,每天这种报告的数量可以达到数百万件。
早在 2015 年,包括 Google、Facebook、Reddit、Twitter 在内的硅谷科技公司、美国国会、最大的色情网站 Pornhub 先后都有应对报复性裸照的审查,美国数十个州也有确立惩罚措施。
依靠技术、社群制度来管理 Facebook,这是扎克伯格过去强调 Facebook 作为公司的特殊性。“在很多方面,Facebook 更像是一个政府而不是一家传统的公司,”扎克伯格在去年 9 月份称,“我们拥有如此庞大的社群,相比其他科技公司,我们确实在制定一些政策。”
卫星新闻是我们的一个小栏目,记录我们暂时还没完全理解的人类进步。
我们的口号是:“这里有难以想象的大新闻。像卫星那么大。”
题图来自:《新世纪福音战士》
我们做了一个壁纸应用,给你的手机加点好奇心。去 App 商店搜 好奇怪 下载吧。