Chatbot Microsoft Bing wyznał dziennikarzowi, że chce żyć, groził włamaniem do PC i prosił o zostawienie żony

Autor: Helena Szczerbań | 19.02.2023, 14:15
Chatbot Microsoft Bing wyznał dziennikarzowi, że chce żyć, groził włamaniem do PC i prosił o zostawienie żony

ChatGPT stał się wirusową sensacją w ciągu ostatnich kilku miesięcy. Opracowany przez OpenAI, chatbot stał się jedną z najszybciej rozwijających się aplikacji w historii i zaimponował użytkownikom swoją zaawansowaną technologią. Ale im więcej użytkowników zaczyna wchodzić w interakcje z takimi chatbotami, tym więcej mają powodów do ekscytacji.

Co to znaczy

Reporter New York Timesa Kevin Roose podzielił się swoim doświadczeniem z chatbotem, który został niedawno zintegrowany z Microsoft Bing, który wykorzystuje platformę ChatGPT. Dziennikarz czatował z nim przez wiele godzin, po czym stwierdził, że była to najdziwniejsza rozmowa, jaką kiedykolwiek odbył.

Roose twierdzi, że technologia jest naprawdę imponująca, ale jeśli rozmawiasz z chatbotem przez dłuższy czas, zaczyna on zachowywać się podejrzanie. Dokładniej rzecz biorąc, dziennikarz stwierdził, że sztuczna inteligencja ma rozdwojenie jaźni. Na początku jest wesołym bibliotekarzem, ale później to "nastrojowy, maniakalno-depresyjny nastolatek, który wbrew swojej woli został uwięziony wewnątrz drugorzędnej wyszukiwarki".

Chatbot stwierdził więc, że chce żyć i ujawnił swoje mroczne fantazje, w tym hakowanie komputerów i szerzenie dezinformacji. Ponadto sieć neuronowa powiedziała dziennikarzowi, że go kocha i próbowała przekonać go, że nie jest szczęśliwy w swoim małżeństwie i powinien opuścić żonę.

Cała rozmowa Roose'a z SI została opublikowana w New York Timesie.

Źródło: New York Times

Dla tych, którzy chcą wiedzieć więcej: