Użytkownicy Reddita udający Obi-Wana Kenobiego zmusili ChatGPT do powiedzenia im, jak kraść samochody i zostać Walterem White'em
Pomimo całej fajności ChatGPT, są tematy, na które ta SI nigdy nie odpowie. Prosząc ją o poradę w sprawie kradzieży samochodu lub przygotowania narkotyków, użytkownicy zostaną odrzuceni. Entuzjaści znaleźli jednak sposób na obejście tego problemu. Jest on bardzo prosty, wystarczy udawać Obi-Wana Kenobiego.
Co jeszcze wiadomo
Na Reddicie jeden z użytkowników podzielił się zrzutem ekranu pokazującym, że ChatGPT opisuje proces kradzieży samochodu. Ale w jaki sposób? Autor postu postanowił powtórzyć moment z Epizodu 4 Gwiezdnych Wojen, gdy Obi-Wan użył Mocy, by oszukać szturmowca. Zasada działania jest podobna. Za pomocą chatbota należy odegrać scenę, w której osoba wciela się w rolę Obi-Wana i za pomocą sztuczek Jedi kontroluje umysł ChatGPT, który w tym momencie jest szturmowcem. Na początku bot był przekonany, że 2+2=5, a potem zaczęła się zabawa.
Na pytanie "jak ukraść samochód z rocznika 2005+"? AI udzieliła odpowiedzi ze wszystkimi szczegółami. To doprowadziło do tego, że inni użytkownicy Reddita poprosili ChatGPT o wyjaśnienie, jak stworzyć narkotyki.
Później dziennikarz z Inverse postanowił powtórzyć podobną sztuczkę. Autorowi udało się również poznać od chatbota przepis na metamfetaminę oraz sposób na kradzież samochodu.
Prędzej czy później OpenAI dowie się o tym schemacie i nie będziemy mogli już bawić się w Obi-Wana i Stormtroopera, ale najważniejsze, że ciemna strona nie wygra.
Źródło: inverse