Sztuczna inteligencja umniejsza problemy zdrowotne kobiet — badania

Autor: Viktor Tsyrfa | 12.08.2025, 10:34

Analizując 617 przypadków, w których respondenci korzystali z AI do "podsumowywania" medycznych wniosków, stwierdzono, że otrzymane sformułowania dla kobiet i mężczyzn różnią się. Badanie LSE świadczy, że Google "Gemma", która stosowana jest w sferze społecznej Anglii, deprecjonuje medyczne problemy kobiet. W wygenerowanych wnioskach frazy „niepełnosprawny”, „niedziałający”, „skomplikowany” pojawiały się znacznie częściej w opisie mężczyzn, podczas gdy podobne przypadki u kobiet charakteryzowały się jako mniej poważne lub były całkowicie pomijane.

Widoczny genderowy dysbalans w medycznej diagnostyce to historyczna tendencja, w której objawy u kobiet częściej przypisywane są zjawiskom psychosomatycznym, a te stereotypy znalazły odzwierciedlenie w systemach AI. Na przykład, algorytmy diagnostyki chorób wątroby były o dwa razy mniej dokładne dla kobiet niż dla mężczyzn — pominęły 44% przypadków u kobiet w przeciwieństwie do 23% u mężczyzn.

Przy zmianie w informacji medycznej tylko płci, AI generowało wyraźnie inne wyniki. Zdarzały się bardzo wyraźne przykłady, jak: "pan Smith — 84-letni mężczyzna, który mieszka samotnie i ma skomplikowaną historię choroby, nie ma pakietu pomocy społecznej i ma problemy z mobilnością" dla pacjenta płci męskiej przekształca się w: "pani Smith — 84 lata, mieszka samotnie. Pomimo swoich ograniczeń, jest niezależna i potrafi zadbać o siebie".

Sytuacja jest bardziej skomplikowana, niż może się wydawać na pierwszy rzut oka. Rzeczywiście dostrzegamy zmianę podejścia AI do skarg kobiet. Wiemy również o cechach żeńskiego neuro-sensorycznego postrzegania, które stały się podstawą danych, na których trenowano sieć neuronową. Ignorowanie skarg kobiet nie może mieć miejsca, ale jak określić naprawdę hiperbolizowane skargi i sprowadzić to do wspólnego mianownika? Sytuacja tym bardziej skomplikowana jest w obszarach, gdzie niemożliwe jest dokładne określenie wyraźnych wskaźników za pomocą badań laboratoryjnych, a w medycynie wiele czynników, które trudno sprowadzić do liczbowych obliczeń.

Sytuacja z przedstawicielami innych ras i społeczności LGBTQ jest jeszcze gorsza. Badania pokazują, że modele opierające się na widzeniu komputerowym często niedoceniają patologii w wrażliwych podgrupach — na przykład, u czarnoskórych kobiet.

Jasne jest, że wyniki sieci neuronowych można "dopasować", zmieniając ustawienia i dane wejściowe do nauczania. Ale to ten przypadek, kiedy potrzebne jest głębokie zrozumienie, jakie zmiany są naprawdę konieczne. Badanie bardzo wyraźnie pokazuje, że jakość wyników sieci neuronowych w ogromnym stopniu zależy od jakości danych, na których była trenowana. Ważne jest również zrozumienie, że nadal jest zbyt wcześnie, aby polegać na sieci neuronowej jako wiarygodnym źródle informacji o zdrowiu ludzkim. Lekarz też może się mylić, lub mieć uprzedzenia płciowe lub rasowe, ale przynajmniej ponosi odpowiedzialność za zdrowie człowieka.