"Kompletny nonsens": Hakerzy skrytykowali obecne testy bezpieczeństwa sztucznej inteligencji

Podczas DEF CON, największej na świecie konferencji hakerskiej, czołowi badacze cyberbezpieczeństwa stwierdzili, że obecne metody ochrony systemów sztucznej inteligencji (AI) są zasadniczo wadliwe i wymagają całkowitego przeglądu.
Co wiadomo
Pierwszy raport z konferencji Hackers' Almanac, opracowany we współpracy z University of Chicago's Cyber Policy Initiative, kwestionuje skuteczność metody "czerwonego zespołu", polegającej na tym, że eksperci ds. bezpieczeństwa skanują systemy sztucznej inteligencji w poszukiwaniu luk w zabezpieczeniach. Sven Cattell, który kieruje AI Village DEF CON, powiedział, że podejście to nie może odpowiednio chronić przed pojawiającymi się zagrożeniami, ponieważ dokumentacja modeli AI jest fragmentaryczna, a oceny zawarte w dokumentacji są niewystarczające.
Podczas konferencji około 500 uczestników przetestowało modele sztucznej inteligencji i nawet nowicjuszom udało się znaleźć luki w zabezpieczeniach. Naukowcy wezwali do wdrożenia struktur podobnych do ram Common Vulnerabilities and Exposures (CVE) stosowanych w tradycyjnym cyberbezpieczeństwie od 1999 r. w celu standaryzacji sposobu dokumentowania i usuwania luk w zabezpieczeniach sztucznej inteligencji.
Źródło: DEF CON