Meta opublikowała zbiór danych FACET w celu zbadania modeli widzenia komputerowego pod kątem stronniczości

Autor: Bohdan Kaminskyi | 01.09.2023, 21:01

Meta zaprezentowała nowe narzędzie, FACET, do oceny uczciwości sztucznej inteligencji, która klasyfikuje i rozpoznaje obiekty na zdjęciach i filmach, w tym ludzi.

Co wie

FACET składa się z 32 000 obrazów z 50 000 osób oznaczonych przez ludzkich adnotatorów. Narzędzie uwzględnia różne klasy związane z zawodami i czynnościami, a także cechy demograficzne i fizyczne.

Meta zastosowała FACET do własnego algorytmu wizji komputerowej DINOv2. Narzędzie wykryło kilka uprzedzeń w modelu, w tym wobec osób o określonych cechach płciowych. Stwierdzono również, że DINOv2 ma tendencję do stereotypowego postrzegania kobiet jako "pielęgniarek".

Meta przyznaje, że FACET może nie odzwierciedlać odpowiednio rzeczywistych pojęć i grup demograficznych. Ponadto wiele przedstawień zawodów w zbiorze danych mogło ulec zmianie od czasu utworzenia narzędzia.

Na przykład większość lekarzy i pielęgniarek na zdjęciach zrobionych podczas pandemii COVID-19 nosi więcej środków ochrony osobistej niż przed pandemią.

Oprócz samego zbioru danych, Meta dostarczyła również narzędzie do eksploracji danych. Aby z niego skorzystać, programiści muszą zgodzić się nie trenować modeli widzenia komputerowego na FACET, a jedynie je oceniać, testować i weryfikować.

Źródło: TechCrunch