Grok podpowiada, jak robić wybuchy i narkotyki, a także daje rady, jak zabić Elona Muska
Ponad 370 000 rozmów użytkowników z AI Grok zostało zindeksowanych przez wyszukiwarki (Google, Bing, DuckDuckGo i inne) dzięki funkcji „podziel się”, która generowała unikalne URL bez odpowiedniego ostrzeżenia użytkowników o tym, że te rozmowy stają się publiczne. Wśród opublikowanych czatów są instrukcje dotyczące tworzenia bomb, narkotyków, substancji psychotropowych, pisania wirusów, popełniania samobójstwa i innych konformnych rzeczy. Sieć szczególnie rozweseliły rady Grok dotyczące zabicia Elona Muska (Elon Musk).
Po 21 sierpnia, kiedy zaczęła się rozprzestrzeniać informacja o szkodliwych radach, Grok zmienił algorytm i teraz na większość wątpliwych pytań odpowiada, że nie może pomóc. Jednak niektóre stare rady, na przykład, jak wyprodukować fentanyl czy metamfetaminę, wciąż pozostają w otwartym dostępie i łatwo można je znaleźć w wyszukiwarce.
Nie xAI, ani jego właściciel Elon Musk w żaden sposób nie skomentowali tej sytuacji.
W lipcu media donosiły o podobnej funkcji ChatGPT, która pozwoliła zindeksować 4500 rozmów. Wtedy skandal dotyczył raczej nieświadomego naruszenia prywatności, ponieważ rozmowy z ChatGPT były mniej kontrowersyjne.