Nowe badanie pokazuje, że sztucznej inteligencji brakuje umiejętności samouczenia się i nie stanowi ona egzystencjalnego zagrożenia.

Autor: Vlad Cherevko | 14.08.2024, 12:30

Nowe badanie opublikowane na 62. dorocznej konferencji Association for Computational Linguistics (ACL 2024) wykazało, że duże modele językowe (LLM), takie jak ChatGPT, nie mogą uczyć się samodzielnie i nie stanowią zagrożenia egzystencjalnego.

Co wiadomo

Badanie podkreśla, że chociaż LLM mogą generować złożony język, nie są w stanie nabyć nowych umiejętności bez jasnych instrukcji, co czyni je przewidywalnymi i kontrolowanymi. Dr Harish Tayyar Madabushi z Uniwersytetu w Bath powiedział, że dominujący pogląd, że sztuczna inteligencja stanowi zagrożenie dla ludzkości, odwraca uwagę od rzeczywistych problemów.

Profesor Irina Gurevich dodała, że choć sztuczna inteligencja nie stanowi egzystencjalnego zagrożenia, należy zwrócić uwagę na jej potencjalne niewłaściwe wykorzystanie, na przykład do tworzenia fałszywych wiadomości. Badanie rozwiewa obawy, że AI może rozwinąć złożone zdolności myślenia i podkreśla potrzebę skupienia się na innych zagrożeniach związanych z wykorzystaniem AI.

Źródło: Neuroscience