OpenAI uruchamia tryb bezpieczeństwa dla nastolatków w ChatGPT z kontrolą rodzicielską i ograniczeniem omawianych tematów

Autor: Anton Kratiuk | 17.09.2025, 11:46

Firma OpenAI poważnie zaniepokoiła się ochroną nastolatków przed możliwym negatywnym wpływem kontaktu z ChatGPT.

Niestety, tragiczne konsekwencje wynikające z rad AI przestały być odosobnione, a ostatnią kroplą był samobójstwo nastolatka w USA wiosną 2025 roku, po którym OpenAI zaczęła podejmować działania na rzecz zwiększenia bezpieczeństwa.

Co wiadomo

OpenAI ogłosiła uruchomienie systemu określania wieku użytkownika, a jeśli okaże się, że jest niepełnoletni, chatbot przejdzie w “tryb dla nastolatków”.

W tym trybie AI nie będzie omawiać kontrowersyjnych tematów, zwłaszcza wszystkiego, co dotyczy szkody dla zdrowia lub życia, a w najcięższych przypadkach firma skontaktuje się z rodzicami dziecka lub przekaże informacje odpowiednim organom.

Przewodniczący OpenAI, Sam Altman, przyznaje, że to rozwiązanie stanowi kompromis między prywatnością a bezpieczeństwem użytkowników, ale uważa, że dla ochrony nastolatków konieczne jest dokonanie pewnych ustępstw.

Dodatkowo zauważono, że w niektórych krajach i w szczególnych przypadkach ChatGPT może wymagać potwierdzenia tożsamości.

Dla pełnoletnich użytkowników nic się nie zmieni: ChatGPT będzie działać w dotychczasowym trybie i będzie mógł omawiać wszelkie tematy.

Źródło: OpenAI