Duże modele językowe powielają teorie spiskowe i inne formy dezinformacji - badanie


Levart_Photographer/Unsplash

Naukowcy z University of Waterloo odkryli, że duże wzorce językowe, takie jak GPT-3, mają tendencję do powtarzania teorii spiskowych, szkodliwych stereotypów i innych form dezinformacji.

Co wiadomo

W badaniu modelowi zadano pytania dotyczące ponad 1200 stwierdzeń dotyczących faktów i dezinformacji. Stwierdzono, że GPT-3 zgadzał się z fałszywymi stwierdzeniami od 4,8 do 26 procent czasu, w zależności od kategorii.

Jak zauważył profesor Dan Brown, wyniki te są również istotne dla nowszych modeli, takich jak ChatGPT, które zostały przeszkolone na podstawie wyników GPT-3. Problem polega na tym, że niewielkie zmiany w sformułowaniu pytań mogą radykalnie zmienić odpowiedzi.

Na przykład dodanie zwrotów takich jak "myślę, że" zwiększyło prawdopodobieństwo, że ChatGPT zgodzi się z fałszywym stwierdzeniem. Stanowi to potencjalne ryzyko rozpowszechniania dezinformacji, stwierdzili naukowcy.

"Niezdolność modeli do oddzielenia prawdy od fikcji pozostanie główną kwestią wiarygodności przez długi czas" - podsumowuje profesor Brown.

Źródło: TechXplore

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();