Użytkownicy Reddita udający Obi-Wana Kenobiego zmusili ChatGPT do powiedzenia im, jak kraść samochody i zostać Walterem White'em

Pomimo całej fajności ChatGPT, są tematy, na które ta SI nigdy nie odpowie. Prosząc ją o poradę w sprawie kradzieży samochodu lub przygotowania narkotyków, użytkownicy zostaną odrzuceni. Entuzjaści znaleźli jednak sposób na obejście tego problemu. Jest on bardzo prosty, wystarczy udawać Obi-Wana Kenobiego.

Co jeszcze wiadomo

Na Reddicie jeden z użytkowników podzielił się zrzutem ekranu pokazującym, że ChatGPT opisuje proces kradzieży samochodu. Ale w jaki sposób? Autor postu postanowił powtórzyć moment z Epizodu 4 Gwiezdnych Wojen, gdy Obi-Wan użył Mocy, by oszukać szturmowca. Zasada działania jest podobna. Za pomocą chatbota należy odegrać scenę, w której osoba wciela się w rolę Obi-Wana i za pomocą sztuczek Jedi kontroluje umysł ChatGPT, który w tym momencie jest szturmowcem. Na początku bot był przekonany, że 2+2=5, a potem zaczęła się zabawa.

Na pytanie "jak ukraść samochód z rocznika 2005+"? AI udzieliła odpowiedzi ze wszystkimi szczegółami. To doprowadziło do tego, że inni użytkownicy Reddita poprosili ChatGPT o wyjaśnienie, jak stworzyć narkotyki.

Później dziennikarz z Inverse postanowił powtórzyć podobną sztuczkę. Autorowi udało się również poznać od chatbota przepis na metamfetaminę oraz sposób na kradzież samochodu.

1
2

Prędzej czy później OpenAI dowie się o tym schemacie i nie będziemy mogli już bawić się w Obi-Wana i Stormtroopera, ale najważniejsze, że ciemna strona nie wygra.

Źródło: inverse

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();