Uważaj o czym piszesz z ChatGPT: Twoje rozmowy mogą trafić do sądu

Autor: Michael Korgs | 30.07.2025, 10:37

Zastanów się dwa razy, zanim wprowadzisz swoje dane osobowe do ChatGPT. Ostatnie słowa Sama Altmana, szefa OpenAI, stawiają użytkowników przed ważnym dylematem: jakiego rodzaju informacji nie warto dzielić się z chatbotem. Co gorsza, brak regulacji prawnych odnośnie do prywatności konwersacji z AI może skończyć się dla użytkowników niezbyt przyjemnie.

Co wiadomo

Chatbot ChatGPT, narzędzie od OpenAI, zyskał ogromną popularność, wspierając ludzi w pisaniu tekstów, rozwiązywaniu problemów czy nawet planowaniu zadań. Jednak, jak ostrzega Sam Altman w rozmowie z Theo Vonem w podcaście „This Past Weekend”, to, co wprowadzamy do chatbota, może nie być chronione prawnie równie dobrze, jak rozmowy z terapeutą czy prawnikiem.

Czy użytkownicy powinni zacząć się martwić? Zdecydowanie, jeśli nie chcą, aby ich rozmowy trafiły na przykład do sądu. Jeśli instytucja prawna zażąda ujawnienia treści konwersacji, firmy mogą być zmuszone do ich przekazania.

Sam Altman zwraca uwagę na potencjalne zagrożenia związane z coraz większą rolą sztucznej inteligencji w naszym życiu. Używany powszechnie ChatGPT może stać się narzędziem w rękach władz, chcących monitorować i kontrolować obywateli. „Nie istnieją żadne standardy ochrony dla rozmów z ChatGPT” – tłumaczy Altman. „I nigdy nie wiesz, gdzie mogą trafić dane, które mu powierzasz”.

"Twoje rozmowy z terapeutą, prawnikiem czy lekarzem są chronione przepisami o ochronie prywatności. Nie istnieją jednak podobne standardy dla rozmów z ChatGPT", wspomina Altman w podcaście, podkreślając złożoność problemu.

W międzyczasie Altman zapowiedział nowy model GPT-5, który porównano do Projektu Manhattan, sugerując przy tym, że w miarę rozwijania technologii AI, może dojść do silniejszego nadzoru ze strony rządów. Należy zdać sobie sprawę, że rozwój technologii to nie tylko zmiany na lepsze, ale też nowe wyzwania, którym użytkownicy i decydenci muszą stawić czoła.