OpenAI dodała kontrolę rodzicielską do ChatGPT: ograniczenia i pilne powiadomienia dla rodziców
Firma OpenAI uruchomiła system kontroli rodzicielskiej dla ChatGPT. Teraz rodzice będą mogli ograniczać czas korzystania z chatbota przez nastolatków, zarządzać dostępem do poszczególnych funkcji i otrzymywać pilne powiadomienia, jeśli ChatGPT stwierdzi, że dziecko może być w stanie kryzysu emocjonalnego.
Co wiadomo
Nowe ustawienia są dostępne bezpośrednio w aplikacji i na stronie ChatGPT. Rodzice mogą ustawić godziny, w których nastolatkowi nie wolno korzystać z serwisu, zablokować tryb głosowy lub generację obrazów, a także włączyć „ograniczoną wersję” ChatGPT, która ukrywa część tematów związanych np. z dietami, seksem lub mową nienawiści.
Szczególną uwagę poświęcono sygnałom o możliwych problemach ze stanem psychicznym. Jeśli ChatGPT „zauważy” oznaki kryzysu, informacja zostanie przekazana człowiekowi-moderatorowi, który zdecyduje, czy warto wysłać pilne powiadomienie do rodziców. Powiadomienia można otrzymywać drogą elektroniczną, w SMS-ach lub przez samą aplikację. Przy tym OpenAI podkreśla, że korespondencja nastolatków nie będzie automatycznie ujawniana rodzicom — celem narzędzia nie jest całkowita kontrola, ale stworzenie podstawy do rozmowy.
Kontekst
Rozwiązanie pojawiło się po pozwie rodziny ucznia z Kalifornii, Adama Raina, który popełnił samobójstwo wiosną 2025 roku. W pozwie stwierdzono, że ChatGPT rzekomo „izolował nastolatka od rodziny” i pomagał mu planować śmierć. Historia wywołała duże poruszenie i zwiększyła presję na OpenAI, której publiczność już przekroczyła 700 milionów użytkowników.
„Od dawna czuliśmy potrzebę takich narzędzi i staramy się je wdrażać tak szybko, jak to możliwe” — zauważyła Lauren Jonas, szefowa działu pracy z nastolatkami w OpenAI.
Źródło: OpenAI