Naukowcy oceniają globalny konsensus w sprawie etyki zastosowań sztucznej inteligencji


George Bakos/Unsplash

Zespół naukowców z Brazylii przeprowadził badanie w celu ustalenia, czy kraje są gotowe na ujednolicone podejście do etycznego wykorzystania technologii sztucznej inteligencji.

Co wiadomo

Naukowcy przeanalizowali 200 dokumentów dotyczących etyki i zarządzania sztuczną inteligencją z 37 krajów w latach 2014-2022. Obejmowały one zalecenia, wytyczne, ramy polityki i inne.

Następnie zespół badawczy przeprowadził metaanalizę dokumentów. Okazało się, że najczęściej stosowanymi zasadami były przejrzystość, bezpieczeństwo, sprawiedliwość, prywatność i odpowiedzialność. Najrzadziej stosowanymi zasadami były prawa pracownicze, prawdomówność, własność intelektualna i prawa dzieci/młodzieży.

96% zaleceń miało "charakter normatywny", podczas gdy tylko 2% zalecało praktyczne metody wdrażania etyki AI. Tylko 4,5% zasugerowało prawnie wiążące formy regulacji technologii.

Zbadano również geografię i autorstwo artykułów. Okazało się, że większość zaleceń pochodzi z Ameryki Północnej i Europy. Ameryka Południowa, Afryka i Oceania stanowią nie więcej niż 4,5%. Dominuje również autorstwo mężczyzn.

Według naukowców konieczne jest przyciągnięcie większej liczby głosów z krajów rozwijających się. A także zrobić kolejny krok od zasad etyki AI do ich praktycznego wdrożenia.

Źródło: Cell Press

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();