Sztuczna inteligencja w Call of Duty, która śledzi obelgi graczy na czacie głosowym, znacznie zmniejsza poziom toksyczności w strzelance online.

Autor: Vladislav Nuzhnov | dzisiaj, 10:31

Wiele gier online jest znanych ze swojej toksyczności, w których zamiast dobrze się bawić, będziesz obrażany. A to odpycha pewną liczbę graczy od takich gier, ale Activision aktywnie z tym walczy.

Co wiadomo

ToxMod jest dostępny w Call of Duty od czerwca 2024 roku. Jest to moderacja oparta na sztucznej inteligencji, która automatycznie wykrywa wiadomości zawierające toksyczność, zgłasza je i nakłada karę na gracza, która może na przykład zakazać korzystania z czatu przez określony czas.

Technologia ToxMod firmy Modulate zmniejszyła podobno wykorzystanie czatu głosowego do obrażania innych graczy o 43%.

W lipcu 2024 r., miesiąc po wprowadzeniu ToxMod, 80% graczy, którzy otrzymali obowiązkową karę, nie popełniło ponownie przestępstwa.

Według Insider Gaming, ToxMod jest tak inteligentny, że potrafi odróżnić przyjazny żart od prawdziwej zniewagi, analizując ton i nastrój tego, co ktoś mówi. Jest również wystarczająco inteligentny, aby określić powagę komentarza na podstawie reakcji innych użytkowników.

Źródło: insider-gaming