Roblox wykorzystuje już sztuczną inteligencję do moderowania czatów głosowych, ale ostateczną decyzję nadal podejmują ludzie

Każdy, kto kiedykolwiek grał w konkurencyjne gry online, wie, jak toksycznym miejscem w grach może być czat głosowy. W przeciwieństwie do czatu tekstowego, gdzie potrzeba czasu, aby coś napisać, czat głosowy odbywa się natychmiastowo, co sprawia, że bardzo trudno jest go moderować. Aby rozwiązać ten problem, Roblox aktywnie wdraża sztuczną inteligencję (AI), ale uznaje, że ludzka kontrola pozostaje niezbędna do zapewnienia bezpiecznego środowiska dla graczy.
Co wiemy
Podczas Game Developers Conference (GDC ) 2025, Kiran Bhat, Senior CTO w Roblox, i Hannes Heikinheimo, Head of Voice Chat Security, rozmawiali o roku wykorzystania sztucznej inteligencji do moderacji. Bhat zauważył, że główna trudność polega nie tylko na wykrywaniu obraźliwych słów, ale także na zrozumieniu tonu, intensywności i kontekstu, które określają, czy wypowiedzi są naprawdę obraźliwe.
Pomimo tych wyzwań, sztuczna inteligencja okazała się bardzo skuteczna. Bhat wyjaśnił, że 85% toksycznych zachowań sprowadza się do zaledwie czterech głównych kategorii, a większość naruszeń wiąże się z około 50 słowami kluczowymi. Uczenie maszynowe doskonale radzi sobie z identyfikacją tych wzorców, znacznie zmniejszając liczbę skarg dotyczących nadużyć na czacie głosowym.
Sztuczna inteligencja ma jednak swoje ograniczenia. Heikinigheimo podkreślił, że chociaż algorytmy zapewniają stabilność i bezstronność, nie zawsze mogą poprawnie interpretować rzadkie lub złożone kontekstowo przypadki, w których ludzka ocena pozostaje niezbędna.
Źródło: Videogamer