Popularny zbiór danych treningowych sztucznej inteligencji LAION-5B zawiera obrazy przedstawiające seksualne wykorzystywanie dzieci - badanie


LAION

Zbiór danych treningowych sztucznej inteligencji LAION-5B zawiera co najmniej 1679 odniesień do obrazów przedstawiających seksualne wykorzystywanie dzieci (CSAM).

Co wiadomo

Naukowcy ze Stanford Internet Observatory rozpoczęli analizę zbiorów danych LAION we wrześniu 2023 r. - sprawdzili skróty obrazów za pomocą specjalistycznych platform do wykrywania CSAM. Przeprowadzono również kontrolę przez Kanadyjskie Centrum Ochrony Dzieci.

Zgodnie z opisem na stronie internetowej, LAION jest indeksem obrazów z Internetu, a nie repozytorium. Niemniej jednak eksperci zwracają uwagę na potencjalne niebezpieczeństwo związane z obecnością w nim materiałów CSAM - modele sztucznej inteligencji szkolone na takich danych mogą nauczyć się tworzyć złośliwe treści.

Naukowcy zalecili zaprzestanie korzystania z modeli sztucznej inteligencji, które zostały przeszkolone na LAION-5B. W szczególności model Stable Diffusion firmy Stability AI został częściowo przeszkolony na tych danych.

Google używał również wcześniejszej wersji LAION dla Imagen, ale później porzucił te dane.

Źródło: The Verge

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();