谷歌推出AI工具打击儿童性侵!识别效率提升700%
策划编辑 | Debra
编译 | Debra
编辑 | Natalie
AI 前线导读: 近日,谷歌官方发布了一款免费的 AI 工具,可以识别儿童性虐待内容。与之前已经出现的 AI 鉴黄系统有所不同,谷歌的这一 AI 工具可以做到捕获尚未被标记为非法的儿童性虐待材料,并且处理速度提高了 700%。
更多优质内容请关注微信公众号“AI 前线”(ID:ai-front)
识别未标记材料,效率提高 7 倍
阻止儿童性虐待素材(CSAM)的传播是大型互联网公司的头等大事。但对于前线审核人员来说,识别并删除虐待内容是一项艰巨而悲惨的工作。这就是谷歌发布这款免费人工智能软件的原因。
此前,该领域的大多数技术解决方案都是通过对照以前识别的虐待材料目录检查图像和视频来实现的(例如:PhotoDNA,由 Microsoft 开发,Facebook 和 Twitter 等公司采用的工具。)。这种被称为“爬虫”的软件是打击共享已知的、先前已被识别的 CSAM 的有效方法。但它有一个缺点,就是无法捕获尚未被标记为非法的材料。因此,人类审核人员必须介入审查内容。谷歌的这个 AI 工具与之前已经出现的 AI 鉴黄系统有所不同,它可以做到捕获尚未被标记为非法的儿童性虐待材料,因此能够实现更好的识别效果。
而且,利用谷歌在机器视觉方面的专业知识,这个 AI 工具通过对标记的图像和视频进行排序并“优先将最有可能的 CSAM 内容挑选出来供审查”。这会使得审查过程大大加快。谷歌表示,在一项试验中,人工智能工具帮助审核人员“在相同时长内处理的 CSAM 内容增加了 700%。”
如果能够更快速地识别新图像,意味着现在正在被虐待的儿童可能被更快地识别出来并保护起来。
谷歌将会通过 AI 工具 Content Safety API 向非营利组织(NGO)和行业合作伙伴开放。使用谷歌的 Content Safety API,用户需要填写申请:
https://docs.google.com/forms/d/e/1FAIpQLSeX0Bbtnqgax0jM9ep_u8VvrDROY3NrXPBQvXmB8QWJVmEDLw/viewform
一至两年可创建完全自动化分类器
互联网观察基金会(IWF)副首席执行官 Fred Langford 表示,该软件将帮助审核团队更有效地部署有限的资源,辅助人类审核员进行分类。
IWF 是致力于阻止 CSAM 在线传播的最大组织之一。它位于英国,包括谷歌在内的大型国际科技公司为其提供资金。IWF 聘请了人类审核团队来识别虐待图像,在十几个国家运营用户举报网络,并独立开展调查,与执法机构合作打击共享 CSAM 的网站。
Langford 表示,由于现在人们“对人工智能充满不切实际的幻想”,IWF 将彻底测试谷歌新的人工智能工具,以了解其适应工作流程的程度。他补充说,此类工具是迈向全自动系统的一步,在无人类干预的情况下识别以前未见过的材料。 “那种分类器就像舞台上的圣杯一样。”
但是,他补充说,这些工具应该只在有“清晰”的场景下使用,以避免虐待材料被遗漏。“几年前我会说那种分类器出现还需要五六年,”Langford 说道,“但现在我认为,在某些场景中,我们只需要一至两年时间就可以创建完全自动化的分类器。”
政府打击在线儿童性虐待内容
谷歌选择这个时候宣布发布这个 A 工具,当然不是巧合。
谷歌采取此举的背景,是这家互联网巨头因未阻止违规者在网络上传播 CSAM 而面临越来越大的争议。上周,英国外交大臣杰里米·亨特(Jeremy Hunt)发推,批评谷歌既然可以为中国提供经审查的搜索引擎,为什么不能删除网络上其他地区的儿童虐待内容。
看来谷歌正在考虑审查其进入中国的内容,但却不会与英国、美国和其他 5 个国家合作删除虐待儿童的内容,这似乎不同寻常。过去他们曾为自己的价值观而自豪......
早些时候,英国内政大臣萨吉德·贾维德(Sajid Javid)发起了一项新的“行动呼吁”,作为政府推动谷歌和 Facebook 等科技公司采取更多措施打击在线儿童性虐待行为的一部分。在国家犯罪署(NCA)的最新数据显示英国有多达 8 万人可能对网络上公布的儿童构成威胁之后,该计划得以实施。
儿童性虐待:远比大众想象的普遍
由于互联网的普及,网络,尤其是社交网络,成为滋生恋童癖、儿童性虐待等非法内容的“温床”,在这里形成的黑色产业链远比大众想象的更加庞大,被媒体曝光的程度以及相关调查报告的数量,也比想象中少很多。
虽然这个群体近年来遭到警方和非营利组织的打压,但却并没有从此消失。比如 2017 年曾被曝光过恋童癖的微博大 V 许豪杰,5 月份又被曝重回社交媒体。
当时,许在微博上拥有超过 50 万粉丝,其制作的一系列视频也曾广为传播。其开设的色情网站、贴吧后被警方查封。
在儿童性虐待背后,这条暴力的产业链并没有被彻底清除,而驱动力量正是暴利。以下是一些对恋童癖调查报道的标题,可以看出这是一个暴利的产业:
实际上,儿童性虐待发生的普遍程度,也可能远超你的想象。根据世界卫生组织(WHO, 2016)的调查,在成年人中,每 5 个女性和每 13 个男性中,就有 1 人表示自己曾经遭受过性虐待。其中 34% 的受到性虐待的孩子不满 12 岁(卫生部, 2014)。另外,根据联合国儿童基金会 2017 年的一份报告,全球为数众多的儿童(甚至包括年龄低至一岁的婴幼儿)正在遭受暴力伤害,且施暴者往往是他们的养护人。在全球,约有 1500 万 15 到 19 岁的青春期女童曾被强迫性交或发生其他形式的性行为。
另外,根据彭淋等人(2013)对 2000-2013 年间对儿童性虐待研究的回顾(N=16682),在中国,在儿童时期遭受过性虐待的人高达 18.2%(注:在该研究中性虐待指的是无论儿童是否愿意,任何人在任何地方对儿童直接或间接做出的性利用或性侵犯)。每五个中国孩子中,就有一个遭受过不同程度的性虐待。很多人可能都认为,“性虐待”意味着身体上的侵犯,这也使得一些社会新闻到了。但实际上,儿童性虐待不仅仅指“猥亵”或“强奸”,一些与孩子年龄不符的、强迫发生的与性相关的活动,无论孩子是否愿意,都是对儿童的性虐待,它有时并不“需要”施虐者与受害者之间发生实质的肢体接触。
谷歌此次推出的用于识别儿童性虐待 AI 工具,可以帮助人类审核人员更快速高效地识别相关内容,还可以解决此前 AI 识别系统普遍缺乏的识别未标记内容的问题。对于审核人员来说,此应用的作用小编深有体会,因为出于调查需要,点开的若干网页内容已经引起了小编强烈的心理和生理不适。如果这个 AI 工具的效果真如官方资料所写,倒不失为一个功德无量的应用。
参考链接:
https://www.theverge.com/2018/9/3/17814188/google-ai-child-sex-abuse-material-moderation-tool-internet-watch-foundation
https://venturebeat.com/2018/09/03/google-releases-ai-powered-content-safety-api-to-identify-more-child-abuse-images/
https://www.blog.google/around-the-globe/google-europe/using-ai-help-organizations-detect-and-report-child-sexual-abuse-material-online/
如果你喜欢这篇文章,或希望看到更多类似优质报道,记得给我留言和点赞哦!
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设、网站改版、域名注册、主机空间、手机网站建设、网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。 项目经理在线