OpenAI uznało, że GPT-4 może, przy "minimalnym ryzyku", pomóc w opracowaniu broni biologicznej


Mariia Shalabaieva/Unsplash

OpenAI przeprowadziło badanie w celu oceny ryzyka związanego z wykorzystaniem nowego modelu GPT-4 do opracowania broni biologicznej. Wyniki wykazały, że dostęp do możliwości sztucznej inteligencji zapewnia "co najmniej marginalny" wzrost wydajności gromadzenia informacji w celu opracowania zagrożeń biologicznych.

Co wiadomo

W eksperymencie wzięło udział 50 biologów i 50 studentów. Poproszono ich o znalezienie informacji na temat uprawy i dystrybucji niebezpiecznych substancji. Połowa badanych otrzymała dostęp do specjalnej wersji GPT-4 bez ograniczeń, druga połowa korzystała ze zwykłego Internetu.

Porównanie wyników wykazało niewielki wzrost dokładności i kompletności odpowiedzi w grupie z dostępem do AI. Naukowcy z OpenAI doszli do wniosku, że istnieje "co najmniej niewielkie" ryzyko wykorzystania modelu do gromadzenia danych na temat rozwoju broni biologicznej.

Eksperci i decydenci polityczni już wcześniej wyrażali obawy dotyczące potencjalnego wykorzystania chatbotów do opracowywania zagrożeń biologicznych. W październiku prezydent USA poinstruował Departament Energii, aby upewnił się, że systemy sztucznej inteligencji nie stanowią zagrożenia chemicznego i biologicznego. Zespół OpenAI pracuje obecnie nad zminimalizowaniem takiego ryzyka w miarę rozwoju technologii AI.

Źródło: OpenAI

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();