OpenAI uruchamia grupę Red Teaming Network, aby poprawić niezawodność swoich modeli
OpenAI ogłosiło uruchomienie programu Red Teaming Network, grupy ekspertów, którzy będą oceniać i ograniczać ryzyko w modelach sztucznej inteligencji.
Co wiadomo
Według OpenAI, grupa pomoże zidentyfikować błędy w modelach takich jak DALL-E 2 i GPT-4, a także znaleźć wskazówki, które powodują, że sztuczna inteligencja ignoruje filtry bezpieczeństwa.
Wcześniej firma zatrudniała również zewnętrznych testerów, ale prace te zostały sformalizowane w celu "pogłębienia i poszerzenia" kontroli z ekspertami i organizacjami.
Uczestnicy sieci będą mogli wchodzić ze sobą w interakcje w zakresie wspólnych kwestii związanych z testowaniem sztucznej inteligencji. To powiedziawszy, nie wszyscy zaangażowani w projekt będą pracować nad nowymi produktami OpenAI.
Firma zaprasza również do udziału ekspertów z różnych dziedzin, w tym lingwistyki, biometrii, finansów i opieki zdrowotnej. Wcześniejsze doświadczenie z systemami sztucznej inteligencji nie jest wymagane, ale umowa o zachowaniu poufności może mieć wpływ na inne badania, ostrzega OpenAI.
Źródło: OpenAI