Bezzałogowe systemy prowadzenia pojazdów gorzej rozpoznają dzieci i osoby o ciemnej karnacji - wynika z badania
Naukowcy z King's College London doszli do wniosku, że bezzałogowe systemy prowadzenia samochodów są podatne na uprzedzenia, szczególnie wobec dzieci i osób czarnoskórych.
Co wiadomo
Zespół przyjrzał się ośmiu systemom wykrywania pieszych opartym na sztucznej inteligencji, wykorzystywanym do badań nad autonomiczną jazdą. Przepuścili przez oprogramowanie ponad 8000 obrazów i odkryli, że sztuczna inteligencja identyfikowała dorosłych pieszych o prawie 20 procent lepiej niż dzieci.
Ponadto systemy te były o 7,5% gorsze w rozpoznawaniu osób o ciemnej karnacji, zwłaszcza przy słabym oświetleniu, co czyni technologię mniej bezpieczną w nocy.
Badanie nie testowało oprogramowania, które jest już używane przez producentów samochodów-robotów, takich jak Waymo i Cruise. Wyniki potwierdzają jednak rosnące obawy o bezpieczeństwo tej technologii.
Według naukowców głównym powodem problemów AI z rozpoznawaniem dzieci i osób o ciemnej karnacji jest stronniczość danych wykorzystywanych do szkolenia algorytmów. Zazwyczaj dorośli i osoby o jasnej karnacji są częściej reprezentowane w zbiorach danych.
Rzecznik Waymo powiedział, że badanie nie reprezentuje wszystkich narzędzi używanych w samochodach firmy. Oprócz obrazów z kamer, sztuczna inteligencja otrzymuje dane z czujników, takich jak lidar i radar, które poprawiają dokładność wykrywania obiektów.
Waymo szkoli również system do rozpoznawania ludzkich zachowań i upewnia się, że zbiory danych są reprezentatywne.
Dla tych, którzy nie wiedzą
Algorytmy często odzwierciedlają uprzedzenia obecne w zbiorach danych i umysłach ludzi, którzy je tworzą. Jednym z typowych przykładów jest oprogramowanie do rozpoznawania twarzy, które konsekwentnie wykazywało mniejszą dokładność przy rozpoznawaniu twarzy kobiet, osób o ciemnej karnacji i Azjatów.
Obawy te nie powstrzymały jednak entuzjazmu dla takich technologii AI. Rozpoznawanie twarzy było już niejednokrotnie odpowiedzialne za niesprawiedliwe aresztowanie ciemnoskórych osób
Dla tych, którzy chcą wiedzieć więcej:
- Niewinna kobieta, która była w ósmym miesiącu ciąży, została aresztowana w USA z powodu błędu w rozpoznawaniu twarzy.
- Policja w Detroit zmieni zasady korzystania z rozpoznawania twarzy po omyłkowym aresztowaniu ciężarnej kobiety
Źródło: Gizmodo