ChatGPT z funkcją Trusted Contact: Nowy sposób na wsparcie emocjonalne od OpenAI

ChatGPT z funkcją Trusted Contact: Nowy sposób na wsparcie emocjonalne od OpenAI
ChatGPT może zwrócić się do twojego przyjaciela o pomoc. Źródło: AI

OpenAI uznała, że ludzie coraz częściej używają ChatGPT jako darmowego psychoterapeuty, i postanowiła dodać do tego cyfrowego azylu trochę realnego świata. Teraz, jeśli algorytmy podejrzewają, że planujesz coś złego wobec siebie, będą mogły zapukać do wirtualnych drzwi twojego przyjaciela lub krewnego.

Komunikacja z sieciami neuronowymi stała się tak powszechna, że użytkownicy coraz częściej powierzają chatbotom swoje najtrudniejsze przeżycia. To logiczne: SI nie męczy się, nie osądza i odpowiada natychmiast. Jednak w OpenAI rozumieją, że cyfrowa empatia ma swoje granice. Nowa funkcja Trusted Contact («Osoba zaufana») to próba wyprowadzenia pomocy poza tekstowe pole, angażując realną osobę w krytyczne momenty.

Jak działa wielopoziomowy filtr

Ustawienie funkcji jest całkowicie dobrowolne. Użytkownik może wybrać osobę kontaktową (starszą niż 18 lat), której zostanie wysłane oficjalne zaproszenie z wyjaśnieniem jej roli. Potencjalny pomocnik ma tydzień na przyjęcie lub odrzucenie tej propozycji. Jeśli wszystko zostanie potwierdzone, system zaczyna działać w tle, ale bez nadmiernego zaangażowania.

Interfejs ustawień Trusted Contact w ChatGPT
Ustawienia powiadomień dla bliskich. Ilustracja: OpenAI

Ważne jest, aby zrozumieć, że to nie jest tylko bezduszny algorytm, który reaguje na „trigerowe” słowa. Proces obejmuje obowiązkowy czynnik ludzki:

  • ChatGPT rejestruje oznaki zamiaru wyrządzenia sobie krzywdy i oferuje użytkownikowi zasoby do samopomocy.
  • Do analizy sytuacji dołącza zespół specjalnie przeszkolonych moderatorów.
  • Specjaliści muszą potwierdzić powagę ryzyka w ciągu mniej niż 1 godziny.
  • Dopiero po werdykcie osoby zaufanej wysyłane jest SMS, e-mail lub powiadomienie w aplikacji.

Poufność a granice interwencji

Główne pytanie, które niepokoi użytkowników: czy osoba zaufana przeczyta historię ich czatów? Programiści zapewniają, że poufność pozostaje priorytetem. Wybrana osoba nie uzyska dostępu do korespondencji i nie pozna szczegółów rozmowy. Powiadomienie jedynie poinformuje, że w dialogu pojawił się niepokojący temat związany z samouszkodzeniem, i zawierać będzie prośbę o skontaktowanie się z użytkownikiem.

Funkcję opracowywano przy udziale badaczy i organizacji zajmujących się ochroną zdrowia psychicznego, w tym Amerykańskiego Stowarzyszenia Psychologicznego (APA). Wcześniej podobne narzędzie działało dla kont nastolatków, ale teraz zeskalowano je na dorosłą publiczność. Firma podkreśla: Osoba zaufana nie zastępuje służb ratunkowych ani fachowej terapii, a jedynie dodaje kolejny poziom bezpieczeństwa tam, gdzie algorytm jest bezsilny.

Sztuczna inteligencja staje się coraz bardziej inicjatywna w naszym życiu, czasami nawet za bardzo. Na przykład nowe okulary Alibaba Qwen AI Glasses S1 nauczyły się udzielać porad bez żadnych pytań ze strony właściciela.

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();