Kraje G7 dążą do wspólnej wizji godnej zaufania sztucznej inteligencji, ale dopuszczają różne podejścia.
Steve Johnson/Unsplash
Ministrowie technologii G7 na spotkaniu we Włoszech zobowiązali się do realizacji "wspólnej wizji i celu bezpiecznej, pewnej i godnej zaufania" sztucznej inteligencji. Stwierdzili jednak, że konkretne ramy regulujące sztuczną inteligencję mogą się różnić w zależności od kraju.
Co wiadomo
"Jesteśmy zobowiązani do znalezienia właściwej równowagi między zachęcaniem do innowacji a potrzebą odpowiednich ograniczeń " - stwierdziła grupa G7 w oświadczeniu po dwudniowych rozmowach.
Kraje ugrupowania stwierdziły, że trwają wysiłki na rzecz rozwoju i wzmocnienia interoperacyjności między systemami kontroli sztucznej inteligencji. Zauważyli jednak, że podejścia i narzędzia polityczne mogą się różnić między członkami G7.
Ogłoszenie pojawiło się kilka dni po tym, jak Unia Europejska ostatecznie zatwierdziła surowe zasady regulujące sztuczną inteligencję, w tym systemy takie jak ChatGPT.
Niektóre kraje G7, takie jak Stany Zjednoczone i Wielka Brytania, preferują łagodniejsze ramy, opierając się na samoregulacji i dobrowolnym przestrzeganiu przez gigantów technologicznych systemów nadzoru.
"Nasze podejście do regulacji AI różni się od podejścia UE. Chcemy skupić się na ryzyku, ale także zachęcać do innowacji " - powiedziała brytyjska minister technologii Michelle Donelan.
Źródło: TechXplore