(JY编译)根据一份新的报告发现,被广泛使用的人工智能影像产生器的核心部分包含了成千上万张儿童性虐待的图片。该报告敦促相关公司采取措施来纠正他们所建构的技术中存在的严重问题,保障技术的合法和道德使用,以防止滥用和潜在的危害。
这些图像不仅使得AI系统更容易产生看起来逼真而生动的虚构儿童图像,还能够将穿戴整齐的真人青少年在社交媒体上的照片转化成裸体照片。这项技术的滥用引起了全球学校和执法机构的关注和担忧,因为它可能导致对青少年的隐私和安全构成潜在的威胁。
直到最近,反虐待研究人员认为一些未受检查的人工智能工具产生虐待儿童的图像的唯一方式是将它们学到的知识从两个不同的线上图像类别中结合起来。这两个类别分别是成人色情和无害的儿童照片。
但是,史丹佛网路观察中心(Stanford Internet Observatory)在庞大的人工智能资料库LAION中发现了超过3,200张涉嫌儿童性虐待的图片。LAION是一个包含线上图像和标题的索引,被用于培训一些主要的人工智能图像产生器,如Stable Diffusion。这个位于史丹佛大学的监察小组与加拿大儿童保护中心和其他反虐待慈善机构合作,共同努力识别非法资料,并向执法部门报告原始照片的连结。其中,大约有1,000张图片得到了外部验证,证实了这些图片的非法性质。
在史丹佛网路观察中心发布报告的前一天,LAION告诉《美联社》,他们已立即采取行动,暂时移除了他们的资料集。
LAION是非营利大规模人工智能开放网路(Large-scale Artificial Intelligence Open Network)的缩写,它在一份声明中表示,「对于非法内容我们采取零容忍政策,出于谨慎,我们决定在重新发布数据集之前,先暂时将其下架,以防止任何可能的滥用和安全风险。」
尽管这些图片仅占LAION约58亿张图片的一小部分,但史丹佛小组认为这些图像可能会影响AI工具产生有害输出的能力,也可能对科技的整体影响产生重要作用。同时,这些影像对那些多次被滥用其照片的真实受害者的伤害更深。
史丹佛网路观察中心首席技术长大卫·蒂尔(David Thiel)在报告中写道︰「这不是一个容易解决的问题,竞争激烈推动了一些项目在开发中可能忽视了关键的安全和伦理考虑,加速了技术的推广和使用,从而带来了潜在的问题。」
在采访中,蒂尔说︰「将整个互联网的广泛数据用于训练模型本应该限制在研究操作中,而且如果有的话,应该得到更为严格的关注。」
在LAION资料集开发中发挥重要作用的用户为伦敦新创公司Stability AI,是Stable Diffusion文字到图像模型的制造商。新版本Stable Diffusion增强了防止生成有害内容的能力,但去年推出的旧版本(据Stability AI称其没有发布)仍然被嵌入到其他应用程式和工具中,而且根据斯坦福报告,它仍然是「生成明确图像最受欢迎的模型」。
加拿大儿童保护中心的资讯科技主管劳埃德·理查森(Lloyd Richardson)指出,已经有很多人在他们本地的电脑上使用这个模型。这可能意味着即使有一些改进或更安全的版本出现,先前的版本仍然存在并可能被滥用。该中心负责营运加拿大线上性侵犯举报热线。
Stability AI上周三(20日)表示,他们仅提供经过筛选的Stable Diffusion版本,同时强调自从他们接管Stable Diffusion的独家开发以来,已经采取了积极的步骤来减轻滥用的风险。
公司在一份准备好的声明中说道︰「这些过滤器的作用是在内容到达模型之前将不安全的内容移除,从而有效地防止模型生成不安全的内容。」
LAION项目是德国研究员和教师克里斯托夫·舒曼(Christoph Schuhmann)发起的,他今年早些时候告诉《美联社》,公开这样一个庞大的视觉数据库的部分原因是为了确保人工智能发展的未来不会受到少数强大公司的垄断。
他说︰「透过使科技更加民主化,让整个研究社群和公众都能从中受益,将使科技更加安全和公平。」
关于使用人工智能图像生成器生成非法图像的问题
问题 — 学校和执法机构对于使用一些容易取得的人工智能工具,制作出逼真和露骨的儿童深度伪造图像感到震惊。在越来越多的案例中,青少年使用这些工具将他们穿戴整齐的同龄人的真实照片行修改,使其看起来像是裸体照片。
它是如何发生的 — 在没有适当保护措施的情况下,一些人工智能系统能够根据提示产生儿童性虐待图像。这是因为它们能够基于从互联网上蒐集的大量真实图像的模式「学到」的知识产生新颖的图像。 这其中包括了成人色情和儿童善意照片。一些系统甚至还接受了实际儿童性虐待图像的训练,其中包括在LAION资料库中找到的3,200多张图像。
解决方案 — 史丹佛网路观察中心和其他反虐待组织敦促人工智能研究人员和科技公司采取更好的措施,排除训练资料集中的有害材料,这些资料集是建立人工智能工具的基础。由于开源人工智能模型已经广泛可访问,要将其重新控制变得困难。因此,他们也呼吁公司尽力摒弃那些缺乏强大过滤器并且众所周知受到滥用者青睐的工具,以降低潜在滥用的风险。
LAION获取了许多数据,而这些数据主要来自于Common Crawl,后者则是不断从公开网路中蒐集数据的储存库。不过,Common Crawl的执行董事里奇·斯克伦塔(Rich Skrenta)表示,LAION在使用这些数据之前有责任进行扫描和过滤,以确保使用的数据符合一定的标准和要求。
LAION上周表示,他们已经开发了「严格的过滤器」,用于在发布数据集之前检测和移除非法内容,并且他们仍在致力于改进这些过滤器。史丹佛的报告承认LAION的开发人员曾试图明确滤掉「未成年」内容,但也指出他们如果在早期咨询了儿童安全专家,可能不会发生这问题。
许多文字到图像生成器在某种程度上都与LAION资料库有关,尽管并不清楚是哪些生成器涉及其中。OpenAI,作为DALL-E和ChatGPT的制造商,声明他们并未使用LAION,并且已经对其模型进行了调整,以拒绝涉及未成年人的性内容的请求。
谷歌曾使用LAION资料集建构了其文字到图像的Imagen模型,但在2022年经过对资料库的审核后决定不将这个模型公开。因为在审核期间发现了「一系列不适当的内容,包括色情图像、种族歧视言论和有害的社会刻板印象。」
试图在事后清理资料是困难的,因此史丹佛大学网路观察站呼吁采取更严厉的措施。其中之一是要求那些使用了LAION‐5B(因其包含的50多亿图像文本而得名)的训练集的人「删除或与中介合作清理这些材料。」另一项措施则是要求有效地让旧版的Stable Diffusion在网路的所有角落中消失。
蒂尔指出,对于那些合法的平台,如果它们经常被用于产生滥用图像并且缺乏有效的防护措施,那么它们可以选择停止提供相关的下载版本。这是为了透过切断滥用和不当使用的手段来减少潜在的问题。
举个例子,蒂尔指责CivitAI,它受到那些制作人工智能生成的色情内容的人们的青睐。 蒂尔称该平台缺乏足够的安全措施来防范生成儿童图像。报告也呼吁Hugging Face这样的人工智能公司,在分发模型训练资料时,采取更好的方法来报告并移除与滥用材料相关的连结。
Hugging Face表示,他们定期与监管机构和儿童安全团体合作,以识别和删除滥用材料。同时,CivitAI表示,其在生成描绘儿童的图像方面有「严格的政策」,并已经进行了更新以提供更多的安全保障。该公司还强调,它正在努力确保其政策在技术发展中保持「适应和增强」。
史丹佛的报告对于是否应该在没有儿童家庭同意的情况下将儿童的照片输入到人工智能系统中提出了疑问。这涉及《联邦儿童线上隐私权保护法》(Children’s Online Privacy Protection Act)的保护规定,该法案旨在确保儿童在网路上的隐私权受到保护。
反儿童性虐待组织Thorn的数据科学主管丽贝卡·波特诺夫(Rebecca Portnoff)表示,她的组织进行的研究显示,尽管在滥用者中由人工智能生成的图像的普及率相对较低,但这一比例一直在稳定成长。
开发人员可以透过确保其用于开发人工智能模型的资料集是干净的、不包含滥用材料的,来减轻技术的潜在危害。波特诺夫强调,即使模型已经在使用中,也存在机会采取措施来减轻其产生有害效果的可能性。
科技公司和儿童安全组织目前透过为影片和影像分配唯一的数位识别码「hash」来追踪和取缔儿童滥用资料。根据波特诺夫的说法,相同的概念也可以应用于那些被滥用的人工智能模型。
她说︰「目前还没有采取这行动。但在我看来,这是完全可以实现的,并且应该付诸实践。」
Photo by Steve Johnson on unsplash