Sztuczna inteligencja wyszkoliła się na toksycznej tablicy 4chan i zaczęła obrażać użytkowników

Autor: Maksim Panasovskiy | 09.06.2022, 14:24

Youtube- bloger Yannick Kilcher stworzył bota i wyszkolił go za pomocą toksycznej tablicy Niepoprawny politycznie /pol/ na 4chan.

Sztuczna inteligencja przeanalizowała kilka miliardów obraźliwych wątków i stała się prawdziwą maszyną do mowy nienawiści. Bloger wprowadził model do 10 botów i wysłał je do pisania obraźliwych wiadomości.

W ciągu dnia boty stworzyły 15 000 postów z tekstami rasistowskimi i antysemickimi, co stanowiło około 10% wszystkich postów, które pojawiły się na tablicy tego dnia. Model GPT-czteryChan pokazała się dobrze. Pomimo tworzenia pustych postów i drobnych błędów, nie wszyscy użytkownicy byli w stanie rozpoznać, że coś jest nie tak. Sztuczna inteligencja była znana z tworzenia toksycznej atmosfery, a użytkownicy nadal obrażali się nawzajem nawet po zakończeniu eksperymentu.

Yannick Kilcher publikuje kopię swojego programu na Przytulanie twarzy, ale trzeba było go zablokować. Badacze AI odkryli, że GPT-czteryChan to nieetyczny eksperyment, a nie nieszkodliwy żart.

Źródło: Wice