Google szuka błędów za pomocą sztucznej inteligencji
Google zaprezentowała nowy system AI do wykrywania błędów Big Sleep, który wykorzystuje LLM (duże modele językowe) do analizy kodu. Wiceprezes ds. bezpieczeństwa Google Heather Adkins powiedziała, że system już pomógł wykryć 20 nowych podatności, z których niektóre są klasyfikowane jako krytyczne. System był stosowany do oprogramowania open source, w tym cURL, FFmpeg, ImageMagick, Envoy, libjpeg, gRPC, itd. AI wykryła błędy, które nie były znajdowane przez ludzi, w tym błędy przekroczenia granic tablic, use-after-free itd.
System był rozwijany przez zespoły DeepMind i hakerów Project Zero, którzy zajmują się niezależnym sprawdzaniem bezpieczeństwa usług Google (Blue Team). Google obiecuje udostępnić część narzędzi społeczności, aby wspierać bezpieczeństwo projektów open-source.
Jednocześnie firma zachęca inne korporacje do inwestowania w podobne rozwiązania AI do wykrywania błędów.
Systemy AI do wykrywania błędów nie są nowością. Mimo że obecnie są w stanie "halucynować", wykrywać błędy, których nie można odtworzyć w rzeczywistości lub pomijać krytyczne podatności, te systemy z pewnością staną się popularne w najbliższej przyszłości.