(JY編譯)根據一份新的報告發現,被廣泛使用的人工智能影像產生器的核心部分包含了成千上萬張兒童性虐待的圖片。該報告敦促相關公司採取措施來糾正他們所建構的技術中存在的嚴重問題,保障技術的合法和道德使用,以防止濫用和潛在的危害。
這些圖像不僅使得AI系統更容易產生看起來逼真而生動的虛構兒童圖像,還能夠將穿戴整齊的真人青少年在社交媒體上的照片轉化成裸體照片。這項技術的濫用引起了全球學校和執法機構的關注和擔憂,因為它可能導致對青少年的隱私和安全構成潛在的威脅。
直到最近,反虐待研究人員認為一些未受檢查的人工智能工具產生虐待兒童的圖像的唯一方式是將它們學到的知識從兩個不同的線上圖像類別中結合起來。這兩個類別分別是成人色情和無害的兒童照片。
但是,史丹佛網路觀察中心(Stanford Internet Observatory)在龐大的人工智能資料庫LAION中發現了超過3,200張涉嫌兒童性虐待的圖片。LAION是一個包含線上圖像和標題的索引,被用於培訓一些主要的人工智能圖像產生器,如Stable Diffusion。這個位於史丹佛大學的監察小組與加拿大兒童保護中心和其他反虐待慈善機構合作,共同努力識別非法資料,並向執法部門報告原始照片的連結。其中,大約有1,000張圖片得到了外部驗證,證實了這些圖片的非法性質。
在史丹佛網路觀察中心發布報告的前一天,LAION告訴《美聯社》,他們已立即採取行動,暫時移除了他們的資料集。
LAION是非營利大規模人工智能開放網路(Large-scale Artificial Intelligence Open Network)的縮寫,它在一份聲明中表示,「對於非法內容我們採取零容忍政策,出於謹慎,我們決定在重新發布數據集之前,先暫時將其下架,以防止任何可能的濫用和安全風險。」
儘管這些圖片僅佔LAION約58億張圖片的一小部分,但史丹佛小組認為這些圖像可能會影響AI工具產生有害輸出的能力,也可能對科技的整體影響產生重要作用。同時,這些影像對那些多次被濫用其照片的真實受害者的傷害更深。
史丹佛網路觀察中心首席技術長大衛·蒂爾(David Thiel)在報告中寫道︰「這不是一個容易解決的問題,競爭激烈推動了一些項目在開發中可能忽視了關鍵的安全和倫理考慮,加速了技術的推廣和使用,從而帶來了潛在的問題。」
在採訪中,蒂爾說︰「將整個互聯網的廣泛數據用於訓練模型本應該限制在研究操作中,而且如果有的話,應該得到更為嚴格的關注。」
在LAION資料集開發中發揮重要作用的用戶為倫敦新創公司Stability AI,是Stable Diffusion文字到圖像模型的製造商。新版本Stable Diffusion增強了防止生成有害內容的能力,但去年推出的舊版本(據Stability AI稱其沒有發布)仍然被嵌入到其他應用程式和工具中,而且根據斯坦福報告,它仍然是「生成明確圖像最受歡迎的模型」。
加拿大兒童保護中心的資訊科技主管勞埃德·理查森(Lloyd Richardson)指出,已經有很多人在他們本地的電腦上使用這個模型。這可能意味著即使有一些改進或更安全的版本出現,先前的版本仍然存在並可能被濫用。該中心負責營運加拿大線上性侵犯舉報熱線。
Stability AI上週三(20日)表示,他們僅提供經過篩選的Stable Diffusion版本,同時強調自從他們接管Stable Diffusion的獨家開發以來,已經採取了積極的步驟來減輕濫用的風險。
公司在一份準備好的聲明中說道︰「這些過濾器的作用是在內容到達模型之前將不安全的內容移除,從而有效地防止模型生成不安全的內容。」
LAION項目是德國研究員和教師克里斯托夫·舒曼(Christoph Schuhmann)發起的,他今年早些時候告訴《美聯社》,公開這樣一個龐大的視覺數據庫的部分原因是為了確保人工智能發展的未來不會受到少數強大公司的壟斷。
他說︰「透過使科技更加民主化,讓整個研究社群和公眾都能從中受益,將使科技更加安全和公平。」
關於使用人工智能圖像生成器生成非法圖像的問題
問題 — 學校和執法機構對於使用一些容易取得的人工智能工具,製作出逼真和露骨的兒童深度偽造圖像感到震驚。在越來越多的案例中,青少年使用這些工具將他們穿戴整齊的同齡人的真實照片行修改,使其看起來像是裸體照片。
它是如何發生的 — 在沒有適當保護措施的情況下,一些人工智能系統能夠根據提示產生兒童性虐待圖像。這是因為它們能夠基於從互聯網上蒐集的大量真實圖像的模式「學到」的知識產生新穎的圖像。 這其中包括了成人色情和兒童善意照片。一些系統甚至還接受了實際兒童性虐待圖像的訓練,其中包括在LAION資料庫中找到的3,200多張圖像。
解決方案 — 史丹佛網路觀察中心和其他反虐待組織敦促人工智能研究人員和科技公司採取更好的措施,排除訓練資料集中的有害材料,這些資料集是建立人工智能工具的基礎。由於開源人工智能模型已經廣泛可訪問,要將其重新控制變得困難。因此,他們也呼籲公司盡力摒棄那些缺乏強大過濾器並且眾所周知受到濫用者青睞的工具,以降低潛在濫用的風險。
LAION獲取了許多數據,而這些數據主要來自於Common Crawl,後者則是不斷從公開網路中蒐集數據的儲存庫。不過,Common Crawl的執行董事里奇·斯克倫塔(Rich Skrenta)表示,LAION在使用這些數據之前有責任進行掃描和過濾,以確保使用的數據符合一定的標準和要求。
LAION上週表示,他們已經開發了「嚴格的過濾器」,用於在發布數據集之前檢測和移除非法內容,並且他們仍在致力於改進這些過濾器。史丹佛的報告承認LAION的開發人員曾試圖明確濾掉「未成年」內容,但也指出他們如果在早期諮詢了兒童安全專家,可能不會發生這問題。
許多文字到圖像生成器在某種程度上都與LAION資料庫有關,儘管並不清楚是哪些生成器涉及其中。OpenAI,作為DALL-E和ChatGPT的製造商,聲明他們並未使用LAION,並且已經對其模型進行了調整,以拒絕涉及未成年人的性內容的請求。
谷歌曾使用LAION資料集建構了其文字到圖像的Imagen模型,但在2022年經過對資料庫的審核後決定不將這個模型公開。因為在審核期間發現了「一系列不適當的內容,包括色情圖像、種族歧視言論和有害的社會刻板印象。」
試圖在事後清理資料是困難的,因此史丹佛大學網路觀察站呼籲採取更嚴厲的措施。其中之一是要求那些使用了LAION‐5B(因其包含的50多億圖像文本而得名)的訓練集的人「刪除或與中介合作清理這些材料。」另一項措施則是要求有效地讓舊版的Stable Diffusion在網路的所有角落中消失。
蒂爾指出,對於那些合法的平台,如果它們經常被用於產生濫用圖像並且缺乏有效的防護措施,那麼它們可以選擇停止提供相關的下載版本。這是為了透過切斷濫用和不當使用的手段來減少潛在的問題。
舉個例子,蒂爾指責CivitAI,它受到那些製作人工智能生成的色情內容的人們的青睞。 蒂爾稱該平台缺乏足夠的安全措施來防範生成兒童圖像。報告也呼籲Hugging Face這樣的人工智能公司,在分發模型訓練資料時,採取更好的方法來報告並移除與濫用材料相關的連結。
Hugging Face表示,他們定期與監管機構和兒童安全團體合作,以識別和刪除濫用材料。同時,CivitAI表示,其在生成描繪兒童的圖像方面有「嚴格的政策」,並已經進行了更新以提供更多的安全保障。該公司還強調,它正在努力確保其政策在技術發展中保持「適應和增強」。
史丹佛的報告對於是否應該在沒有兒童家庭同意的情況下將兒童的照片輸入到人工智能系統中提出了疑問。這涉及《聯邦兒童線上隱私權保護法》(Children’s Online Privacy Protection Act)的保護規定,該法案旨在確保兒童在網路上的隱私權受到保護。
反兒童性虐待組織Thorn的數據科學主管麗貝卡·波特諾夫(Rebecca Portnoff)表示,她的組織進行的研究顯示,儘管在濫用者中由人工智能生成的圖像的普及率相對較低,但這一比例一直在穩定成長。
開發人員可以透過確保其用於開發人工智能模型的資料集是乾淨的、不包含濫用材料的,來減輕技術的潛在危害。波特諾夫強調,即使模型已經在使用中,也存在機會採取措施來減輕其產生有害效果的可能性。
科技公司和兒童安全組織目前透過為影片和影像分配唯一的數位識別碼「hash」來追蹤和取締兒童濫用資料。根據波特諾夫的說法,相同的概念也可以應用於那些被濫用的人工智能模型。
她說︰「目前還沒有採取這行動。但在我看來,這是完全可以實現的,並且應該付諸實踐。」
Photo by Steve Johnson on unsplash