OpenAI stworzyło zespół, którego celem jest włączenie pomysłów społeczeństwa do zarządzania modelami sztucznej inteligencji


Mariia Shalabaieva/Unsplash

OpenAI ogłosiło utworzenie nowej grupy badawczej Collective Alignment, która opracuje system zbierania i uwzględniania opinii publicznej przy podejmowaniu decyzji o zachowaniu modeli sztucznej inteligencji firmy.

Co wiadomo

Według twórców, Collective Alignment zapewni, że przyszłe modele sztucznej inteligencji będą zgodne z wartościami i oczekiwaniami społeczeństwa.

Utworzenie zespołu było wynikiem uruchomionego w ubiegłym roku programu grantowego, który finansował eksperymenty mające na celu wprowadzenie kontroli publicznej i "procesów demokratycznych" do zarządzania systemami sztucznej inteligencji.

OpenAI publikuje teraz kod i wyniki pracy grantobiorców. W przyszłości zespół Collective Alignment zintegruje obiecujące prototypy z produktami i usługami firmy.

Deweloperzy twierdzą, że inicjatywa ma na celu uczynienie OpenAI AI tak użyteczną i bezpieczną dla społeczeństwa, jak to tylko możliwe. Niektórzy eksperci zwracają jednak uwagę na obecność interesów komercyjnych i ryzyko lobbingu regulacyjnego ze strony firmy.

Źródło: OpenAI

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();