Badanie: sztuczna inteligencja pisze bardziej przekonujące tweety niż ludzie
Użytkownicy uważają, że tweety są bardziej przekonujące, gdy są napisane przez model językowy oparty na sztucznej inteligencji, a nie przez człowieka.
Co wiemy
Naukowcy zebrali wiadomości na Twitterze omawiające 11 różnych tematów naukowych, od szczepionek i COVID-19 po zmiany klimatu i ewolucję. Następnie poprosili GPT-3 o napisanie nowych tweetów z dokładnymi lub niedokładnymi informacjami.
Następnie zespół zebrał odpowiedzi od 697 uczestników. Wszyscy mówili po angielsku i mieszkali głównie w Wielkiej Brytanii, Australii, Kanadzie, Stanach Zjednoczonych i Irlandii. Zostali poproszeni o zidentyfikowanie, które tweety zostały napisane przez GPT-3, a które przez człowieka. Musieli również zdecydować, czy informacje zawarte w poście były prawdziwe.
W rezultacie uczestnicy badania byli bardziej skłonni zaufać sztucznej inteligencji niż innym ludziom - niezależnie od dokładności informacji.
Ludzie byli najbardziej skuteczni w rozpoznawaniu dezinformacji napisanych przez prawdziwych użytkowników. Fałszywe posty generowane przez GPT-3 były nieco bardziej skuteczne w oszukiwaniu uczestników badania.
Naukowcy zauważyli, że istniało wiele ograniczeń, które wpłynęły na wyniki. Na przykład, uczestnicy oceniali tweety bez kontekstu. Nie mogli sprawdzić profilu autora wiadomości na Twitterze, aby określić jej autentyczność.
Naukowcy odwrócili również proces i poprosili GPT-3 o ocenę prawdziwości tweetów. Okazało się, że model językowy był gorszy od ludzi w określaniu dokładności wiadomości. Jeśli chodzi o wykrywanie dezinformacji, ludzie i GPT-3 wykazali takie same wyniki.
Podsumowując, naukowcy uważają, że najlepszą strategią przeciwdziałania dezinformacji jest rozwijanie krytycznego myślenia, tak aby ludzie mogli samodzielnie oddzielić fakty od fikcji.
Źródło: The Verge.