Jensen Huang: Halucynacje AI są możliwe do rozwiązania, a sztuczna inteligencja ogólna jest za 5 lat

Autor: Bohdan Kaminskyi | 20.03.2024, 21:39

NVIDIA

Podczas corocznej konferencji GTC, dyrektor generalny firmy NVIDIA, Jensen Huang, wypowiedział się na temat aktualnych kwestii dotyczących sztucznej inteligencji (AGI) i problemu halucynacji w reakcjach AI.

Co wiadomo

Według Huanga, osiągnięcie akceptowalnego poziomu AGI, która może działać na poziomie ludzkim lub przewyższać ludzi w szerokim zakresie zadań, może nastąpić w ciągu najbliższych 5 lat. Konkretne ramy czasowe zależą jednak od tego, jak zdefiniujemy kryteria AGI.

"Jeśli ustawimy AGI jako zestaw konkretnych testów, w których oprogramowanie może działać o 8% lepiej niż większość ludzi, wierzę, że osiągniemy to w ciągu 5 lat" - wyjaśnił Huang.

Jako takie testy wymienił egzaminy prawnicze, testy logiczne, testy ekonomiczne czy egzaminy wstępne na studia medyczne.

Jeśli chodzi o problem halucynacji lub tendencji sztucznej inteligencji do udzielania fałszywych, ale wiarygodnych odpowiedzi, Huang uważa, że można go rozwiązać. Zasugerował, by wymagać od systemów sprawdzania i potwierdzania odpowiedzi z wiarygodnych źródeł przed wydaniem wyniku.

"Dodaj zasadę: dla każdej odpowiedzi musisz szukać i badać " - powiedział Huang.

Powiedział, że proces ten mógłby być podobny do sprawdzania faktów w dziennikarstwie: porównaj fakty ze źródeł ze znanymi prawdami, a jeśli odpowiedź jest częściowo niedokładna, odrzuć całe źródło.

Źródło: TechCrunch