OpenAI uruchamia grupę Red Teaming Network, aby poprawić niezawodność swoich modeli

OpenAI uruchamia grupę Red Teaming Network, aby poprawić niezawodność swoich modeli

OpenAI ogłosiło uruchomienie programu Red Teaming Network, grupy ekspertów, którzy będą oceniać i ograniczać ryzyko w modelach sztucznej inteligencji.

Co wiadomo

Według OpenAI, grupa pomoże zidentyfikować błędy w modelach takich jak DALL-E 2 i GPT-4, a także znaleźć wskazówki, które powodują, że sztuczna inteligencja ignoruje filtry bezpieczeństwa.

Wcześniej firma zatrudniała również zewnętrznych testerów, ale prace te zostały sformalizowane w celu "pogłębienia i poszerzenia" kontroli z ekspertami i organizacjami.

Uczestnicy sieci będą mogli wchodzić ze sobą w interakcje w zakresie wspólnych kwestii związanych z testowaniem sztucznej inteligencji. To powiedziawszy, nie wszyscy zaangażowani w projekt będą pracować nad nowymi produktami OpenAI.

Firma zaprasza również do udziału ekspertów z różnych dziedzin, w tym lingwistyki, biometrii, finansów i opieki zdrowotnej. Wcześniejsze doświadczenie z systemami sztucznej inteligencji nie jest wymagane, ale umowa o zachowaniu poufności może mieć wpływ na inne badania, ostrzega OpenAI.

Źródło: OpenAI

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();