Jensen Huang: Halucynacje AI są możliwe do rozwiązania, a sztuczna inteligencja ogólna jest za 5 lat
NVIDIA
Podczas corocznej konferencji GTC, dyrektor generalny firmy NVIDIA, Jensen Huang, wypowiedział się na temat aktualnych kwestii dotyczących sztucznej inteligencji (AGI) i problemu halucynacji w reakcjach AI.
Co wiadomo
Według Huanga, osiągnięcie akceptowalnego poziomu AGI, która może działać na poziomie ludzkim lub przewyższać ludzi w szerokim zakresie zadań, może nastąpić w ciągu najbliższych 5 lat. Konkretne ramy czasowe zależą jednak od tego, jak zdefiniujemy kryteria AGI.
"Jeśli ustawimy AGI jako zestaw konkretnych testów, w których oprogramowanie może działać o 8% lepiej niż większość ludzi, wierzę, że osiągniemy to w ciągu 5 lat" - wyjaśnił Huang.
Jako takie testy wymienił egzaminy prawnicze, testy logiczne, testy ekonomiczne czy egzaminy wstępne na studia medyczne.
Jeśli chodzi o problem halucynacji lub tendencji sztucznej inteligencji do udzielania fałszywych, ale wiarygodnych odpowiedzi, Huang uważa, że można go rozwiązać. Zasugerował, by wymagać od systemów sprawdzania i potwierdzania odpowiedzi z wiarygodnych źródeł przed wydaniem wyniku.
"Dodaj zasadę: dla każdej odpowiedzi musisz szukać i badać " - powiedział Huang.
Powiedział, że proces ten mógłby być podobny do sprawdzania faktów w dziennikarstwie: porównaj fakty ze źródeł ze znanymi prawdami, a jeśli odpowiedź jest częściowo niedokładna, odrzuć całe źródło.
Źródło: TechCrunch