Sztuczna inteligencja w Call of Duty, która śledzi obelgi graczy na czacie głosowym, znacznie zmniejsza poziom toksyczności w strzelance online.
Wiele gier online jest znanych ze swojej toksyczności, w których zamiast dobrze się bawić, będziesz obrażany. A to odpycha pewną liczbę graczy od takich gier, ale Activision aktywnie z tym walczy.
Co wiadomo
ToxMod jest dostępny w Call of Duty od czerwca 2024 roku. Jest to moderacja oparta na sztucznej inteligencji, która automatycznie wykrywa wiadomości zawierające toksyczność, zgłasza je i nakłada karę na gracza, która może na przykład zakazać korzystania z czatu przez określony czas.
Technologia ToxMod firmy Modulate zmniejszyła podobno wykorzystanie czatu głosowego do obrażania innych graczy o 43%.
W lipcu 2024 r., miesiąc po wprowadzeniu ToxMod, 80% graczy, którzy otrzymali obowiązkową karę, nie popełniło ponownie przestępstwa.
Według Insider Gaming, ToxMod jest tak inteligentny, że potrafi odróżnić przyjazny żart od prawdziwej zniewagi, analizując ton i nastrój tego, co ktoś mówi. Jest również wystarczająco inteligentny, aby określić powagę komentarza na podstawie reakcji innych użytkowników.
Źródło: insider-gaming