Grok podpowiada, jak robić wybuchy i narkotyki, a także daje rady, jak zabić Elona Muska

Grok podpowiada, jak robić wybuchy i narkotyki, a także daje rady, jak zabić Elona Muska
Elon Musk. Źródło: Jason Andrew/Bloomberg через Getty Images

Ponad 370 000 rozmów użytkowników z AI Grok zostało zindeksowanych przez wyszukiwarki (Google, Bing, DuckDuckGo i inne) dzięki funkcji „podziel się”, która generowała unikalne URL bez odpowiedniego ostrzeżenia użytkowników o tym, że te rozmowy stają się publiczne. Wśród opublikowanych czatów są instrukcje dotyczące tworzenia bomb, narkotyków, substancji psychotropowych, pisania wirusów, popełniania samobójstwa i innych konformnych rzeczy. Sieć szczególnie rozweseliły rady Grok dotyczące zabicia Elona Muska (Elon Musk).

Po 21 sierpnia, kiedy zaczęła się rozprzestrzeniać informacja o szkodliwych radach, Grok zmienił algorytm i teraz na większość wątpliwych pytań odpowiada, że nie może pomóc. Jednak niektóre stare rady, na przykład, jak wyprodukować fentanyl czy metamfetaminę, wciąż pozostają w otwartym dostępie i łatwo można je znaleźć w wyszukiwarce.

Nie xAI, ani jego właściciel Elon Musk w żaden sposób nie skomentowali tej sytuacji.

W lipcu media donosiły o podobnej funkcji ChatGPT, która pozwoliła zindeksować 4500 rozmów. Wtedy skandal dotyczył raczej nieświadomego naruszenia prywatności, ponieważ rozmowy z ChatGPT były mniej kontrowersyjne.

Źródło: gizmodo.com
var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();