USA i 17 innych krajów uzgodniło zalecenia dotyczące bezpiecznych systemów sztucznej inteligencji

Autor: Bohdan Kaminskyi | 28.11.2023, 13:06

Dado Ruvić/Reuters

Stany Zjednoczone, Wielka Brytania i kilkanaście innych krajów przedstawiły pierwsze międzynarodowe porozumienie zawierające zalecenia dotyczące tworzenia bezpiecznych systemów sztucznej inteligencji. Deweloperzy AI są zachęcani do projektowania swoich rozwiązań w celu ochrony użytkowników i społeczeństwa przed nadużyciami.

Co wiadomo

20-stronicowy dokument wzywa firmy do wdrożenia środków, takich jak monitorowanie systemów sztucznej inteligencji pod kątem naruszeń, ochrona danych przed manipulacją i weryfikacja dostawców oprogramowania.

Według Jen Easterly, dyrektor amerykańskiej agencji ds. cyberbezpieczeństwa, liczba krajów popierających ideę priorytetowego traktowania bezpieczeństwa w sztucznej inteligencji jest ważna. To pierwszy krok w kierunku zharmonizowanego stanowiska w sprawie potrzeby odpowiedzialnego podejścia do tworzenia nowych technologii - powiedziała.

Porozumienie jest kolejną globalną inicjatywą mającą na celu uregulowanie rozwoju sztucznej inteligencji. Wielka Brytania zorganizowała wcześniej szczyt na ten temat, a UE dyskutuje nad przepisami w tej dziedzinie.

Dokument nie porusza kwestii etycznych związanych z wykorzystaniem technologii ani problemów związanych z gromadzeniem danych na potrzeby szkoleń. Niemniej jednak eksperci uważają, że jest to ważny pierwszy krok w kierunku ujednoliconego podejścia do regulacji AI na całym świecie.

Źródło: The Guardian