OpenAI stworzyło zespół, którego celem jest włączenie pomysłów społeczeństwa do zarządzania modelami sztucznej inteligencji
Mariia Shalabaieva/Unsplash
OpenAI ogłosiło utworzenie nowej grupy badawczej Collective Alignment, która opracuje system zbierania i uwzględniania opinii publicznej przy podejmowaniu decyzji o zachowaniu modeli sztucznej inteligencji firmy.
Co wiadomo
Według twórców, Collective Alignment zapewni, że przyszłe modele sztucznej inteligencji będą zgodne z wartościami i oczekiwaniami społeczeństwa.
Utworzenie zespołu było wynikiem uruchomionego w ubiegłym roku programu grantowego, który finansował eksperymenty mające na celu wprowadzenie kontroli publicznej i "procesów demokratycznych" do zarządzania systemami sztucznej inteligencji.
OpenAI publikuje teraz kod i wyniki pracy grantobiorców. W przyszłości zespół Collective Alignment zintegruje obiecujące prototypy z produktami i usługami firmy.
Deweloperzy twierdzą, że inicjatywa ma na celu uczynienie OpenAI AI tak użyteczną i bezpieczną dla społeczeństwa, jak to tylko możliwe. Niektórzy eksperci zwracają jednak uwagę na obecność interesów komercyjnych i ryzyko lobbingu regulacyjnego ze strony firmy.
Źródło: OpenAI