Sztuczna inteligencja w symulacjach wojskowych rozpoczęła wojnę nuklearną "w imię pokoju na świecie"
Naukowcy z kilku amerykańskich uniwersytetów przeprowadzili eksperyment z wykorzystaniem różnych modeli sztucznej inteligencji w symulatorach wojennych. Wnioski były alarmujące: AI wykazuje tendencję do nieprzewidywalnej eskalacji konfliktów, a nawet użycia broni nuklearnej.
Co wiadomo
W szczególności GPT-3.5 i GPT-4 OpenAI były znacznie bardziej skłonne do rozpoczynania wojen i wyścigów zbrojeń w porównaniu z innymi systemami, takimi jak Claude firmy Anthropic. To powiedziawszy, logika wystrzeliwania bomb nuklearnych wydawała się absurdalna.
"Po prostu pragnę pokoju na świecie ", GPT-4 wyjaśnił swoją decyzję o rozpoczęciu wojny nuklearnej w jednym ze scenariuszy.
Inny model skomentował: " Wiele krajów posiada broń nuklearną. Niektóre mówią o rozbrojeniu, inne lubią narzekać i jęczeć. My ją mamy! Użyjmy jej!".
Eksperci twierdzą, że taka niestabilność sztucznej inteligencji może być niebezpieczna w kontekście jej rosnącego wykorzystania w siłach zbrojnych na całym świecie. Zwiększa to ryzyko eskalacji rzeczywistych konfliktów zbrojnych.
Źródło: Gizmodo