Rada nadzorcza Meta przeanalizuje przypadki wykorzystania sztucznej inteligencji do tworzenia wyraźnych obrazów.

Autor: Bohdan Kaminskyi | 18.04.2024, 20:51

Mariia Shalabaieva/Unsplash

Rada nadzorcza Meta zajęła się dwoma przypadkami wykorzystania sztucznej inteligencji do tworzenia wyraźnych wizerunków osób publicznych. Rada chce ocenić skuteczność polityk i praktyk moderacji Meta w odniesieniu do takich treści.

Co wiadomo

Jedna ze spraw dotyczy postu na Instagramie zawierającego wygenerowany przez sztuczną inteligencję obraz nagiej hinduskiej kobiety. Został on opublikowany przez konto, które publikuje tylko takie treści. Chociaż post został usunięty po tym, jak użytkownik złożył skargę, jego odwołanie również nie zostało rozpatrzone.

Druga sprawa dotyczy postu na grupie na Facebooku, który pokazywał "wygenerowaną przez SI nagą kobietę" z podpisem odnoszącym się do "amerykańskiej osoby publicznej". Post został usunięty przez automatyczne narzędzie moderujące, ale autor odwołał się od tej decyzji.

Rada nadzorcza postanowiła przeanalizować oba przypadki, aby ocenić, czy Meta sprawiedliwie chroni kobiety na całym świecie przed takimi treściami generowanymi przez sztuczną inteligencję. Rada prosi o publiczne komentarze przez dwa tygodnie i planuje wkrótce opublikować swoją decyzję i zalecenia dotyczące polityki Mety.

Rada nadzorcza miała już wcześniej wpływ na politykę firmy w zakresie treści generowanych przez sztuczną inteligencję, na przykład po incydencie z wideo Joe Bidena. W rezultacie Meta zgodziła się oznaczać więcej takich treści AI na swoich platformach.

Źródło: Engadget