USA i 17 innych krajów uzgodniło zalecenia dotyczące bezpiecznych systemów sztucznej inteligencji
Dado Ruvić/Reuters
Stany Zjednoczone, Wielka Brytania i kilkanaście innych krajów przedstawiły pierwsze międzynarodowe porozumienie zawierające zalecenia dotyczące tworzenia bezpiecznych systemów sztucznej inteligencji. Deweloperzy AI są zachęcani do projektowania swoich rozwiązań w celu ochrony użytkowników i społeczeństwa przed nadużyciami.
Co wiadomo
20-stronicowy dokument wzywa firmy do wdrożenia środków, takich jak monitorowanie systemów sztucznej inteligencji pod kątem naruszeń, ochrona danych przed manipulacją i weryfikacja dostawców oprogramowania.
Według Jen Easterly, dyrektor amerykańskiej agencji ds. cyberbezpieczeństwa, liczba krajów popierających ideę priorytetowego traktowania bezpieczeństwa w sztucznej inteligencji jest ważna. To pierwszy krok w kierunku zharmonizowanego stanowiska w sprawie potrzeby odpowiedzialnego podejścia do tworzenia nowych technologii - powiedziała.
Porozumienie jest kolejną globalną inicjatywą mającą na celu uregulowanie rozwoju sztucznej inteligencji. Wielka Brytania zorganizowała wcześniej szczyt na ten temat, a UE dyskutuje nad przepisami w tej dziedzinie.
Dokument nie porusza kwestii etycznych związanych z wykorzystaniem technologii ani problemów związanych z gromadzeniem danych na potrzeby szkoleń. Niemniej jednak eksperci uważają, że jest to ważny pierwszy krok w kierunku ujednoliconego podejścia do regulacji AI na całym świecie.
Źródło: The Guardian