USA i Wielka Brytania zgadzają się wspólnie testować bezpieczeństwo modeli sztucznej inteligencji

Autor: Bohdan Kaminskyi | 02.04.2024, 19:17
USA i Wielka Brytania zgadzają się wspólnie testować bezpieczeństwo modeli sztucznej inteligencji
Steve Johnson/Unsplash

Rządy Stanów Zjednoczonych i Wielkiej Brytanii podpisały protokół ustaleń w celu stworzenia wspólnego podejścia do niezależnej oceny bezpieczeństwa zaawansowanych modeli sztucznej inteligencji, takich jak ChatGPT i DALL-E.

Co wiadomo

W ramach partnerstwa, brytyjski AI Safety Institute i jego amerykański odpowiednik, ogłoszony wcześniej przez wiceprezydent Kamalę Harris, wspólnie opracują zestawy testów do oceny ryzyka i bezpieczeństwa najnowocześniejszych modeli sztucznej inteligencji.

Strony planują dzielić się wiedzą techniczną, informacjami i personelem. Jednym z początkowych celów będzie przeprowadzenie wspólnych testów na publicznie dostępnym modelu sztucznej inteligencji.

Brytyjska minister nauki Michelle Donelan podkreśliła potrzebę szybkiego działania, ponieważ oczekuje się, że w przyszłym roku pojawi się nowa generacja modeli sztucznej inteligencji, których możliwości nie są jeszcze znane.

Partnerstwo jest pierwszym na świecie dwustronnym porozumieniem w sprawie bezpieczeństwa sztucznej inteligencji, chociaż zarówno USA, jak i Wielka Brytania zamierzają zaangażować inne kraje w przyszłości.

Sekretarz handlu USA Gina Raimondo powiedziała, że partnerstwo przyspieszy prace instytucji nad oceną zagrożeń związanych ze sztuczną inteligencją dla bezpieczeństwa narodowego i całego społeczeństwa, zapewniając głębsze zrozumienie systemów sztucznej inteligencji i wydając rygorystyczne zalecenia.

Dla tych, którzy nie wiedzą

Oprócz testowania i oceny, rządy na całym świecie opracowują również zasady regulujące technologie sztucznej inteligencji. Biały Dom podpisał rozporządzenie wykonawcze, aby zapewnić, że agencje federalne używają tylko bezpiecznych narzędzi sztucznej inteligencji, a Parlament Europejski zatwierdził szeroko zakrojone przepisy zakazujące manipulacyjnych i dyskryminujących systemów sztucznej inteligencji, a także wymagające etykietowania treści generowanych przez sztuczną inteligencję.

Źródło: Engadget