Meta opublikowała zbiór danych FACET w celu zbadania modeli widzenia komputerowego pod kątem stronniczości
Meta zaprezentowała nowe narzędzie, FACET, do oceny uczciwości sztucznej inteligencji, która klasyfikuje i rozpoznaje obiekty na zdjęciach i filmach, w tym ludzi.
Co wie
FACET składa się z 32 000 obrazów z 50 000 osób oznaczonych przez ludzkich adnotatorów. Narzędzie uwzględnia różne klasy związane z zawodami i czynnościami, a także cechy demograficzne i fizyczne.
Meta zastosowała FACET do własnego algorytmu wizji komputerowej DINOv2. Narzędzie wykryło kilka uprzedzeń w modelu, w tym wobec osób o określonych cechach płciowych. Stwierdzono również, że DINOv2 ma tendencję do stereotypowego postrzegania kobiet jako "pielęgniarek".
Meta przyznaje, że FACET może nie odzwierciedlać odpowiednio rzeczywistych pojęć i grup demograficznych. Ponadto wiele przedstawień zawodów w zbiorze danych mogło ulec zmianie od czasu utworzenia narzędzia.
Na przykład większość lekarzy i pielęgniarek na zdjęciach zrobionych podczas pandemii COVID-19 nosi więcej środków ochrony osobistej niż przed pandemią.
Oprócz samego zbioru danych, Meta dostarczyła również narzędzie do eksploracji danych. Aby z niego skorzystać, programiści muszą zgodzić się nie trenować modeli widzenia komputerowego na FACET, a jedynie je oceniać, testować i weryfikować.
Źródło: TechCrunch