Eksperci wyśmiewają założenie brytyjskich polityków, że sztuczna inteligencja będzie w stanie podejmować decyzje na polu bitwy.
Eksperci od prawa technologicznego i oprogramowania dyskutowali z brytyjską Izbą Lordów o możliwości przeniesienia odpowiedzialności za decyzje bojowe broni sztucznej inteligencji.
Co wiadomo
Lordowie próbowali przekonać ekspertów, że taka broń może być wprowadzana stopniowo lub ostrożnie, najwyraźniej obawiając się utraty przewagi w wykorzystaniu sztucznej inteligencji do celów wojskowych.
Jeden z Lordów zapytał, czy broń SI może spełniać kryteria rozróżnienia i proporcjonalności. Profesor Christian Enemark odpowiedział, że tylko ludzie są w stanie to zrobić, a autonomiczne działanie istoty innej niż człowiek jest "filozoficznym nonsensem".
Laura Nolan, ekspert ds. etyki AI, powiedziała, że broń sztucznej inteligencji nie może ocenić proporcjonalności swoich działań, ponieważ nie zna strategicznej wartości wojskowej ataku. Według niej broń na polu bitwy nie zna nic poza kilkoma obrazami i uczeniem maszynowym. Nie rozumie również wartości militarnej, która zależy od szerszego kontekstu strategicznego.
Naukowiec Taniel Yusef powiedział, że proste algorytmy klasyfikacji danych docelowych mogą być błędne. W takim przypadku raport dotyczący broni byłby oparty na matematyce, która byłaby poprawna pod względem kodu, ale nie rzeczywistości.
Wyraziła obawę, że bez prawnie wiążącego instrumentu zapewniającego ludzką kontrolę nad bronią AI, ten aspekt zostanie pominięty.
Źródło: The Register.