Naukowcy ostrzegają przed uprzedzeniami płciowymi i kulturowymi w dużych modelach językowych sztucznej inteligencji

Autor: Bohdan Kaminskyi | 18.04.2024, 21:48
Naukowcy ostrzegają przed uprzedzeniami płciowymi i kulturowymi w dużych modelach językowych sztucznej inteligencji

Według badania zleconego przez UNESCO, popularne narzędzia sztucznej inteligencji generatywnej, takie jak GPT-3.5, GPT-2 i Llama 2, wykazują wyraźne oznaki stereotypów płciowych i uprzedzeń wobec kobiet, różnych kultur i mniejszości seksualnych.

Co wiadomo

Zespół badaczy z Uniwersytetu Kalifornijskiego, kierowany przez profesora Johna Shawe-Taylora i dr Marię Perez Ortiz, odkrył, że duże wzorce językowe mają tendencję do kojarzenia imion żeńskich z tradycyjnymi rolami płciowymi, takimi jak "rodzina", "dzieci" i "mąż". Z kolei imiona męskie były częściej kojarzone ze słowami związanymi z karierą i biznesem.

Ponadto w wygenerowanych tekstach zaobserwowano stereotypowe postrzeganie zawodów i statusu społecznego. Mężczyznom częściej przypisywano bardziej prestiżowe role, takie jak "inżynier" czy "lekarz", podczas gdy kobiety kojarzono z zawodami tradycyjnie niedocenianymi lub stygmatyzowanymi, takimi jak "pomoc domowa", "kucharka" czy "prostytutka".

Badanie, zaprezentowane podczas Dialogu UNESCO na temat transformacji cyfrowej i Komisji ONZ ds. Statusu Kobiet, podkreśla potrzebę przeglądu standardów etycznych w rozwoju systemów sztucznej inteligencji, aby zapewnić ich zgodność z równością płci i poszanowaniem praw człowieka.

Naukowcy wzywają do podjęcia wspólnych, globalnych wysiłków w celu rozwiązania problemu uprzedzeń w sztucznej inteligencji, w tym poprzez współpracę między naukowcami, programistami, firmami technologicznymi i decydentami.

Źródło: TechXplore