Atak hakerski na OpenAI: wyciek informacji o rozwoju sztucznej inteligencji rodzi pytania o bezpieczeństwo firmy
Dowiedzieliśmy się, że na początku 2023 r. hakerowi udało się przeniknąć do wewnętrznych systemów komunikacyjnych OpenAI, wykradając ważne informacje na temat technologii sztucznej inteligencji opracowanych przez twórców ChatGPT.
Co wiadomo
Pracownicy firmy dowiedzieli się o problemie w kwietniu tego roku, ale incydent został ukryty przed opinią publiczną. Odkrycie to wywołało poważną debatę w firmie na temat protokołów bezpieczeństwa i możliwych zagrożeń dla bezpieczeństwa narodowego.
Haker uzyskał dostęp do forum pracowniczego, na którym omawiano poufne tematy, ale nie był w stanie włamać się do podstawowych systemów AI. Kierownictwo OpenAI, wierząc, że atakujący nie był powiązany z żadnym rządem, postanowiło nie informować organów ścigania o incydencie.
Szef techniczny OpenAI, Leopold Aschenbrenner, wyraził zaniepokojenie brakiem ochrony firmy przed takimi zagrożeniami i został zwolniony wiosną za wyciek innych informacji. Aschenbrenner zasugerował, że jego zwolnienie miało charakter polityczny i wspomniał o włamaniu w niedawnym podcaście, choć szczegóły incydentu nie zostały wcześniej ujawnione. Powiedział również, że zabezpieczenia OpenAI nie były w stanie ochronić kluczowych tajemnic w przypadku infiltracji przez zagranicznego agenta.
Źródło: New York Times