Izrael wykorzystuje sztuczną inteligencję do identyfikacji celów bombardowań w Strefie Gazy - Media
CHUTTERSNAP/Unsplash.
Izraelskie wojsko wykorzystuje system sztucznej inteligencji o nazwie "Lavender" do wybierania celów bombardowań w Strefie Gazy. System został opracowany po atakach rakietowych Hamasu w październiku 2023 roku, zgodnie z dochodzeniem przeprowadzonym przez lokalne publikacje +972 Magazine i Local Call.
Co wiadomo
Według źródeł, w szczytowym momencie Lavender oznaczył około 37 000 Palestyńczyków w Strefie Gazy jako "podejrzanych bojowników Hamasu" i zezwolił na ich zniszczenie. Jednak izraelskie wojsko zaprzeczyło istnieniu takiej listy, twierdząc, że sztuczna inteligencja nie jest wykorzystywana do identyfikacji podejrzanych terrorystów, a jedynie jest "narzędziem dla analityków" w procesie wyboru celów.
Według artykułu, dane wykorzystane do szkolenia Lavender obejmowały nie tylko informacje o znanych bojownikach Hamasu, ale także o osobach w niewielkim stopniu powiązanych z organizacją. System został przeszkolony do identyfikowania "cech charakterystycznych" podejrzanych bojowników, takich jak członkostwo w grupach WhatsApp z nimi lub częste zmiany telefonów komórkowych. Źródła szacują, że około 10% osób zidentyfikowanych przez Lavender nie było w rzeczywistości członkami Hamasu.
Wojsko, które korzystało z systemu, stwierdziło, że nie musi niezależnie weryfikować celów zidentyfikowanych przez Lavender przed przeprowadzeniem ataków. Spowodowało to wiele ofiar cywilnych, które "potraktowano statystycznie". W niektórych przypadkach celem ataków byli również członkowie rodzin podejrzanych bojowników.
Eksperci postrzegają użycie Lavender jako kontynuację polityki masowej inwigilacji i zbiorowego karania Palestyńczyków, którą Izrael prowadzi od lat. Wzywają do zapewnienia, że czas wojny nie usprawiedliwia masowego mordowania ludności cywilnej.
Źródło: The Verge