Kraje G7 dążą do wspólnej wizji godnej zaufania sztucznej inteligencji, ale dopuszczają różne podejścia.

Autor: Bohdan Kaminskyi | 18.03.2024, 20:59

Steve Johnson/Unsplash

Ministrowie technologii G7 na spotkaniu we Włoszech zobowiązali się do realizacji "wspólnej wizji i celu bezpiecznej, pewnej i godnej zaufania" sztucznej inteligencji. Stwierdzili jednak, że konkretne ramy regulujące sztuczną inteligencję mogą się różnić w zależności od kraju.

Co wiadomo

"Jesteśmy zobowiązani do znalezienia właściwej równowagi między zachęcaniem do innowacji a potrzebą odpowiednich ograniczeń " - stwierdziła grupa G7 w oświadczeniu po dwudniowych rozmowach.

Kraje ugrupowania stwierdziły, że trwają wysiłki na rzecz rozwoju i wzmocnienia interoperacyjności między systemami kontroli sztucznej inteligencji. Zauważyli jednak, że podejścia i narzędzia polityczne mogą się różnić między członkami G7.

Ogłoszenie pojawiło się kilka dni po tym, jak Unia Europejska ostatecznie zatwierdziła surowe zasady regulujące sztuczną inteligencję, w tym systemy takie jak ChatGPT.

Niektóre kraje G7, takie jak Stany Zjednoczone i Wielka Brytania, preferują łagodniejsze ramy, opierając się na samoregulacji i dobrowolnym przestrzeganiu przez gigantów technologicznych systemów nadzoru.

"Nasze podejście do regulacji AI różni się od podejścia UE. Chcemy skupić się na ryzyku, ale także zachęcać do innowacji " - powiedziała brytyjska minister technologii Michelle Donelan.

Źródło: TechXplore