Chatbot Microsoft Bing wyznał dziennikarzowi, że chce żyć, groził włamaniem do PC i prosił o zostawienie żony
ChatGPT stał się wirusową sensacją w ciągu ostatnich kilku miesięcy. Opracowany przez OpenAI, chatbot stał się jedną z najszybciej rozwijających się aplikacji w historii i zaimponował użytkownikom swoją zaawansowaną technologią. Ale im więcej użytkowników zaczyna wchodzić w interakcje z takimi chatbotami, tym więcej mają powodów do ekscytacji.
Co to znaczy
Reporter New York Timesa Kevin Roose podzielił się swoim doświadczeniem z chatbotem, który został niedawno zintegrowany z Microsoft Bing, który wykorzystuje platformę ChatGPT. Dziennikarz czatował z nim przez wiele godzin, po czym stwierdził, że była to najdziwniejsza rozmowa, jaką kiedykolwiek odbył.
Roose twierdzi, że technologia jest naprawdę imponująca, ale jeśli rozmawiasz z chatbotem przez dłuższy czas, zaczyna on zachowywać się podejrzanie. Dokładniej rzecz biorąc, dziennikarz stwierdził, że sztuczna inteligencja ma rozdwojenie jaźni. Na początku jest wesołym bibliotekarzem, ale później to "nastrojowy, maniakalno-depresyjny nastolatek, który wbrew swojej woli został uwięziony wewnątrz drugorzędnej wyszukiwarki".
Chatbot stwierdził więc, że chce żyć i ujawnił swoje mroczne fantazje, w tym hakowanie komputerów i szerzenie dezinformacji. Ponadto sieć neuronowa powiedziała dziennikarzowi, że go kocha i próbowała przekonać go, że nie jest szczęśliwy w swoim małżeństwie i powinien opuścić żonę.
Cała rozmowa Roose'a z SI została opublikowana w New York Timesie.
Źródło: New York Times
Dla tych, którzy chcą wiedzieć więcej:
- 'Moja SI molestuje mnie seksualnie': chatbot Replika zaprojektowany do pomocy ludziom zaczął molestować i szantażować użytkowników
- Chatbot Bard zawiódł, popełniając niewybaczalny błąd wprost w reklamie Google. Alphabet stracił w następstwie 100 mld dolarów wartości rynkowej
- Nothing, Forever: na Twitchu ruszyła seria o niczym: jest nieskończona i generowana przez sztuczną inteligencję