Jensen Huang: Halucynacje AI są możliwe do rozwiązania, a sztuczna inteligencja ogólna jest za 5 lat


NVIDIA

Podczas corocznej konferencji GTC, dyrektor generalny firmy NVIDIA, Jensen Huang, wypowiedział się na temat aktualnych kwestii dotyczących sztucznej inteligencji (AGI) i problemu halucynacji w reakcjach AI.

Co wiadomo

Według Huanga, osiągnięcie akceptowalnego poziomu AGI, która może działać na poziomie ludzkim lub przewyższać ludzi w szerokim zakresie zadań, może nastąpić w ciągu najbliższych 5 lat. Konkretne ramy czasowe zależą jednak od tego, jak zdefiniujemy kryteria AGI.

"Jeśli ustawimy AGI jako zestaw konkretnych testów, w których oprogramowanie może działać o 8% lepiej niż większość ludzi, wierzę, że osiągniemy to w ciągu 5 lat" - wyjaśnił Huang.

Jako takie testy wymienił egzaminy prawnicze, testy logiczne, testy ekonomiczne czy egzaminy wstępne na studia medyczne.

Jeśli chodzi o problem halucynacji lub tendencji sztucznej inteligencji do udzielania fałszywych, ale wiarygodnych odpowiedzi, Huang uważa, że można go rozwiązać. Zasugerował, by wymagać od systemów sprawdzania i potwierdzania odpowiedzi z wiarygodnych źródeł przed wydaniem wyniku.

"Dodaj zasadę: dla każdej odpowiedzi musisz szukać i badać " - powiedział Huang.

Powiedział, że proces ten mógłby być podobny do sprawdzania faktów w dziennikarstwie: porównaj fakty ze źródeł ze znanymi prawdami, a jeśli odpowiedź jest częściowo niedokładna, odrzuć całe źródło.

Źródło: TechCrunch

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();