Halucynacje AI zagrażają wiarygodności naukowej - badanie

Autor: Bohdan Kaminskyi | 21.11.2023, 16:52
Halucynacje AI zagrażają wiarygodności naukowej - badanie
Growtika/Unsplash

Zdolność dużych modeli językowych (LLM) do generowania fałszywych, ale przekonujących treści stanowi bezpośrednie zagrożenie dla nauki i prawdy naukowej. Tak wynika z badania przeprowadzonego przez Oxford Internet Institute.

Co wiadomo

Cecha generatywnej sztucznej inteligencji polegająca na "wymyślaniu" informacji nazywana jest halucynacjami. Naukowcy twierdzą, że LLM wyszkolone na danych z Internetu nie mogą zagwarantować poprawności odpowiedzi.

Zbiory danych mogą zawierać fałszywe stwierdzenia, opinie i niedokładne informacje. Ponadto, nadmierne poleganie ludzi na chatbotach może pogłębiać problem.

Współautor badania Brent Mittelstadt zauważył, że użytkownicy antropomorfizują LLM, uznając ich odpowiedzi za prawdę. Jest to częściowo napędzane przez interfejs chatbotów, które komunikują się z ludźmi i odpowiadają na pozornie każde pytanie za pomocą pewnie brzmiącego, dobrze napisanego tekstu.

W nauce szczególnie ważne jest poleganie na wiarygodnych danych. Aby uniknąć halucynacji AI, naukowcy zalecają używanie LLM jako "tłumacza o sumie zerowej". Oznacza to, że użytkownicy powinni dostarczać algorytmowi odpowiednie dane i prosić go o ich przekształcenie, zamiast polegać na modelu jako źródle wiedzy.

W ten sposób łatwiej jest zweryfikować poprawność wyniku.

Naukowcy nie zaprzeczają, że LLM pomogą w organizacji procesu naukowego. Wezwali jednak społeczność do bardziej odpowiedzialnego korzystania ze sztucznej inteligencji.

Źródło: The Next Web