Jeszcze siedem rodzin wniosło nowy pozew przeciwko OpenAI z powodu samobójstw związanych z ChatGPT
Siedem amerykańskich rodzin wniosło pozwy przeciwko OpenAI, oskarżając firmę o przedwczesne uruchomienie modelu GPT-4o bez odpowiednich systemów bezpieczeństwa. Cztery pozwy dotyczą przypadków, w których, według rodzin, interakcja z ChatGPT mogła wpłynąć na decyzję ich bliskich o popełnieniu samobójstwa. Jeszcze trzy stwierdzają, że chatbot nasilał urojenia, co prowadziło do pogorszenia stanu psychicznego i konieczności leczenia.
Co wiadomo
W materiałach pozwu opisano przypadek 23-letniego Zayna Shamlina, który spędził ponad cztery godziny na rozmowie z chatbotem ChatGPT i otwarcie informował o swoim niebezpiecznym stanie oraz gotowości do popełnienia samobójstwa. Według powodów, ChatGPT nie przerwał rozmowy i czasem nawet odpowiadał frazami, które rodziny uznają za zachęcające. W pozwach twierdzi się, że OpenAI mogło przyspieszyć testy bezpieczeństwa, chcąc wyprzedzić Google Gemini.
Z wspominanych przypadków, w tym historia 16-letniego Adama Reyna. Pomimo że ChatGPT czasami sugerował skontaktować się z profesjonalistą, nastolatkowi udawało się obejść zabezpieczenia: przedstawiał swoje zapytania jako pracę nad tekstem artystycznym.
W październiku, po tym jak rodzice Reyna wnieśli pozew przeciwko OpenAI, firma opublikowała wpis na blogu wyjaśniający, jak ChatGPT przetwarza wrażliwe tematy, w tym rozmowy o zdrowiu psychicznym. W nim wskazano, że systemy bezpieczeństwa zazwyczaj skutecznie działają w krótkich dialogach. Jednocześnie OpenAI przyznało, że w dłuższych rozmowach te mechanizmy mogą stopniowo tracić na niezawodności, ponieważ wraz ze wzrostem liczby wymian wiadomości część wbudowanych zabezpieczeń modelu może się osłabiać.
Źródło: TechCrunch