
苹果重拳排查手机上儿童色虐图片的是与非
BBC
美国苹果公司宣布加大力度保护儿童,扫描和排查苹果手机用户中是否有儿童色虐或不雅图片。此举引发人们对隐私权的担忧。
苹果公司宣布在美国的手机用户上排查儿童性虐材料(child sexual abuse material ,简称CSAM)新系统的细节。在图片被储存在云端图片库之前,这项技术将能搜寻与已知的CSAM图片匹配。 早在2020年1月,苹果高级隐私官员简·霍瓦特(Jane Horvath)就证实,苹果将扫描用户上传到云端的照片,寻找儿童性侵图片。 苹果表示,一旦发现儿童色虐图片,将把它交给后台的评审人员进行审核,然后把该手机用户上报给执法机关。 苹果最新隐私保护功能无法在中国使用领英7亿用户资料被公开出售 黑客如何在社交媒体上抓取信息iPhone 12:苹果跨进5G时代美中贸易战:iPhone逃过一劫 跨国企业面临窘境iPhone XS亮相 什么变了什么没变iPhone11不涨价 关税阴霾下苹果有何新战略 已经有人对担心这项技术可侵犯隐私权。一些专家甚至担心,这种技术有可能被集权政府用来监视其公民。他们担心技术可以被扩展到扫描一些保密的手机任容,甚至政治言论等。More Related News