丹·塞克斯顿写道,欧盟委员会提出了一项大胆的提案,旨在控制儿童性虐待材料(CSAM)在互联网上的传播,这可能是迄今为止保护网络儿童的斗争中最激进的措施之一。
丹·塞克斯顿(Dan Sexton)是英国儿童安全非营利组织互联网观察基金会(IWF)的首席技术官。
新立法将要求科技行业检测已知和未知的儿童遭受性虐待、强奸和性折磨的图像和视频。
它还将要求他们检测和防止修饰材料,并向一个新的欧盟中心报告冒犯性内容,以解决儿童性虐待和性剥削问题。
对这种材料的强制检测从根本上来说是一件好事。我们的最新数据显示,这个问题并没有消失,犯罪分子仍在转向欧盟国家的服务器,以存储一些最令人发指和有害的材料。在2021年,我们发现所有已知的儿童性虐待材料(CSAM)中有62%被追踪到一个欧盟成员国的服务器上。
新提案有可能对此类犯罪内容采取强硬立场,并表明儿童和虐待受害者将受到保护。
检测已知的有限公司Ntent是成功的,完善的,有效的,准确的
这项新立法将要求平台检测已知的儿童性侵材料,而训练有素的分析师已经确认了这些材料。
已知的内容检测已经由业界进行了十多年。它是成功的,公认的,有效的,准确的。
它不会侵犯用户的隐私,它正在全世界被使用,每天数百万次,数十亿次。这不是什么新鲜事。
这里使用的技术不会读取信息,也不会扫描手机或照片。这项技术将内容转换成数字,并与另一组数字进行比较。如果数字匹配,就会被屏蔽。
如果你把它部署在受监管的互联网上,你可以对一个通过我们的“报告删除”工具向我们提交图像的孩子说,该图像将在受监管的互联网上的所有地方被屏蔽,因为所有地方都必须屏蔽它。我认为,这是一件非常强大的事情。
寻找新的公司Ntent帮助寻找和保护新的受害者
新规定还要求检测以前不为人知的儿童性侵图像和视频。
在这些情况下,人工智能(AI)将是必要的——机器学习工具正在寻找未知的图像,它认为有很大可能与虐待有关。
这些工具有巨大的潜力,但任何处理过程都必须有人工审查的支持。人工审查是受过训练的专家,他们了解儿童性虐待材料,并具有丰富的经验,比如我们在IWF的分析师。这是关键。
这项技术仍处于发展阶段,但我们已经看到了相当准确和有效的工具在工业中使用的例子。
关键是人的节制,因为我认为机器不应该做决定。我认为机器应该帮助分析人员,这样他们就可以做出这些决定。
要想正确处理,难度更大,但优点是不可否认的。在这里投资是值得的,因为一旦你发现了新的内容并将其转化为已知的内容,你就可以在任何地方可靠地阻止它。
这非常重要,也意味着有更大的机会找到并保护新的受害者。
新内容可以是刚刚生成的内容。在这些情况下,我们有机会找到受害者,拯救他们,并在他们的形象一次又一次被分享之前保护他们。
在生命周期中,你越早发现并阻止这些内容,你就有更大的机会阻止孩子在一生中再次成为受害者。
什么是次我的隐私吗?
隐私对每个人都很重要,包括孩子。如果没有对私人数据的保护,整个互联网将无法正常工作。
然而,隐私权并不凌驾于其他权利之上。它不应该超过儿童的安全权利。必须对新提议采取适当的措施,确保儿童的权利得到尊重。
新提案并不是说互联网上的所有地方都需要扫描这些内容——它实际上非常集中。
事实上,只有那些正在被使用或极有可能被用来传播儿童性侵材料的平台,才会被要求采取措施来降低这种风险。
这并不是说每个人的隐私都会受到侵犯,或者互联网上的每条信息都会被扫描。如果你有一个平台用来分享儿童被性侵的图片,你就必须努力阻止这种事情发生。
如果我们知道一个平台产生了数百万份报告,并被用来传播儿童性侵事件,他们应该采取一些行动。
这与没有儿童性虐待证据的平台需要采取措施来检测是完全不同的。它是有针对性的,你只把它部署在有儿童性虐待危险的地方。这是一些评论家所不能理解的本质。