Główne firmy zajmujące się sztuczną inteligencją zgadzają się zająć obrazami przedstawiającymi wykorzystywanie dzieci
Steve Johnson/Unsplash
Wiodące firmy zajmujące się sztuczną inteligencją, w tym Google, Meta, OpenAI, Microsoft i Amazon, zgodziły się podjąć kroki w celu zapobiegania wykorzystywaniu seksualnemu dzieci (CSAM) w zestawach danych szkoleniowych dla modeli sztucznej inteligencji.
Co wiadomo
Giganci technologiczni podpisali nowy zestaw zasad mających na celu ograniczenie rozprzestrzeniania się CSAM. Zobowiązują się do zapewnienia, że dane szkoleniowe nie zawierają złośliwych treści, unikania zbiorów danych o wysokim ryzyku włączenia takich materiałów oraz usuwania takich obrazów lub linków do nich ze źródeł danych.
Ponadto firmy zamierzają "testować w warunkach skrajnych" modele sztucznej inteligencji, aby upewnić się, że nie generują one treści CSAM, i udostępniać modele dopiero po ocenie ich zgodności z wymogami bezpieczeństwa dzieci.
Do inicjatywy przyłączyły się również takie firmy jak Anthropic, Civitai, Metaphysic, Mistral AI i Stability AI.
Rosnąca popularność generatywnej sztucznej inteligencji przyczyniła się do rozprzestrzeniania się fałszywych obrazów online, w tym syntetycznych zdjęć przedstawiających seksualne wykorzystywanie dzieci. Ostatnie badania ujawniły obecność odniesień do CSAM w niektórych popularnych zestawach danych szkoleniowych dla modeli sztucznej inteligencji.
Thorn, organizacja non-profit zajmująca się walką z wykorzystywaniem dzieci, która pomogła opracować wytyczne, ostrzega, że generowanie CSAM za pomocą sztucznej inteligencji może uniemożliwić identyfikację ofiar, zwiększyć popyt i ułatwić znajdowanie i rozpowszechnianie problematycznych materiałów.
Google twierdzi, że wraz z przyjęciem zasad, firma zwiększyła również dotacje reklamowe dla National Centre for Missing and Exploited Children (NCMEC) w celu promowania inicjatyw mających na celu podnoszenie świadomości i zapewnienie ludziom narzędzi do identyfikowania i zgłaszania nadużyć.
Źródło: The Verge