OpenAI utworzyło grupę w celu oceny katastrofalnych zagrożeń związanych ze sztuczną inteligencją
Mariia Shalabaieva/Unsplash
OpenAI ogłosiło utworzenie nowego zespołu zajmującego się łagodzeniem potencjalnie niebezpiecznych zagrożeń związanych ze sztuczną inteligencją.
Co wiadomo
Zespół ds. gotowości będzie monitorował, oceniał i zapobiegał poważnym problemom, jakie może powodować sztuczna inteligencja. Obejmują one zagrożenia nuklearne, broń biologiczną, ludzkie oszustwa i cyberataki.
OpenAI zauważa, że nowy zespół opracuje politykę rozwoju sztucznej inteligencji opartą na ryzyku. Aleksander Madry, ekspert MIT w dziedzinie uczenia maszynowego, został wyznaczony do kierowania zespołem.
Według OpenAI zaawansowane modele sztucznej inteligencji mogą przynieść korzyści, ale także niosą ze sobą rosnące ryzyko. Dyrektor generalny firmy, Sam Altman, ostrzegł wcześniej przed potencjalnymi katastrofalnymi konsekwencjami sztucznej inteligencji i wezwał rządy do traktowania tej technologii równie poważnie, jak broni jądrowej.
Źródło: OpenAI