OpenAI uruchamia grupę Red Teaming Network, aby poprawić niezawodność swoich modeli

Autor: Bohdan Kaminskyi | 20.09.2023, 16:36

OpenAI ogłosiło uruchomienie programu Red Teaming Network, grupy ekspertów, którzy będą oceniać i ograniczać ryzyko w modelach sztucznej inteligencji.

Co wiadomo

Według OpenAI, grupa pomoże zidentyfikować błędy w modelach takich jak DALL-E 2 i GPT-4, a także znaleźć wskazówki, które powodują, że sztuczna inteligencja ignoruje filtry bezpieczeństwa.

Wcześniej firma zatrudniała również zewnętrznych testerów, ale prace te zostały sformalizowane w celu "pogłębienia i poszerzenia" kontroli z ekspertami i organizacjami.

Uczestnicy sieci będą mogli wchodzić ze sobą w interakcje w zakresie wspólnych kwestii związanych z testowaniem sztucznej inteligencji. To powiedziawszy, nie wszyscy zaangażowani w projekt będą pracować nad nowymi produktami OpenAI.

Firma zaprasza również do udziału ekspertów z różnych dziedzin, w tym lingwistyki, biometrii, finansów i opieki zdrowotnej. Wcześniejsze doświadczenie z systemami sztucznej inteligencji nie jest wymagane, ale umowa o zachowaniu poufności może mieć wpływ na inne badania, ostrzega OpenAI.

Źródło: OpenAI