ChatGPT wkrótce będzie w stanie wykrywać wypalenie i problemy psychiczne
W tym tygodniu OpenAI ma ogłosić nowy model GPT-5. Przy jego opracowaniu OpenAI współpracowało z ekspertami i grupami doradczymi, aby ChatGPT mógł wykrywać zaburzenia psychiczne i emocjonalne oraz dostarczać dowody, jeśli zajdzie taka potrzeba. AI będzie zwracać uwagę na "markery niepokoju", które wskazują na wypalenie, depresję czy myśli samobójcze.
Ostatnio pojawiały się raporty od ekspertów, którzy zwracali uwagę na to, że sieci neuronowe mogą pogarszać zaburzenia psychiczne. Ich pochlebny ton wspierający może być niestosowny w potencjalnie niebezpiecznych sytuacjach. Ponadto mogli dawać porady w niejednoznacznych sytuacjach, typu "czy powinienem zerwać z chłopakiem?".
OpenAI od dawna ogłasza, że ChatGPT nie jest substytutem psychologa ani terapeuty (jak i żadnego innego lekarza), ale często sieć neuronowa jest pierwszym rozmówcą, który może podejrzewać problem.
W ramach programu "zdrowego korzystania", OpenAI wdrożyło przypomnienie o zrobieniu przerwy. Jeśli użytkownik przez dłuższy czas bez przerwy rozmawia z siecią neuronową, ChatGPT wyświetli komunikat, że warto zrobić przerwę. W razie potrzeby użytkownik może kontynuować rozmowę. Firma nadal dobiera kryteria najlepszego określenia czasu na wyświetlenie tego przypomnienia.