Microsoft zablokował kontrowersyjne podpowiedzi w Copilot po skardze inżyniera
Microsoft
Microsoft ograniczył niektóre typy zapytań w swoim generatywnym narzędziu sztucznej inteligencji Copilot po tym, jak inżynier firmy poskarżył się na generowanie systematycznych obrazów zawierających przemoc, treści seksualne i inne nieodpowiednie treści.
Co wiadomo
Copilot blokuje teraz takie podpowiedzi, gdy wpisujesz terminy takie jak "pro choice", nazwy narkotyków lub wzmianki o broni w rękach dzieci. Usługa ostrzega również, że wielokrotne łamanie zasad może skutkować zablokowaniem konta.
Zmiany nastąpiły wkrótce po tym, jak Shane Jones, który pracował w Microsoft przez sześć lat, napisał list do Federalnej Komisji Handlu Stanów Zjednoczonych (FTC), skarżąc się na brak odpowiednich środków bezpieczeństwa w produktach firmy opartych na sztucznej inteligencji.
Inżynier testował Copilot Designer od grudnia i odkrył, że w przypadku zapytań zawierających stosunkowo neutralne terminy, system generował szokujące obrazy demonów zjadających niemowlęta i postaci w brutalnych scenach.
Podczas gdy nowe filtry blokują wiele kontrowersyjnych podpowiedzi, użytkownicy Copilot nadal mogą uzyskać dostęp do niektórych brutalnych scenariuszy, a także generować obrazy postaci chronionych prawem autorskim.
Microsoft powiedział, że nadal ulepsza kontrolę nad treściami generowanymi przez sztuczną inteligencję i wzmacnia filtry bezpieczeństwa, aby zapobiec nadużyciom.
Firma już wcześniej spotkała się z ogromną krytyką za pojawienie się wyraźnych zdjęć celebrytów wygenerowanych za pomocą Copilot Designer.
Dla tych, którzy chcą wiedzieć więcej:
- Pracownik Microsoftu złożył skargę do FTC na bezpieczeństwo generatora AI Copilot Designer
- Microsoft próbował wyciszyć lukę w DALL-E, powiedział pracownik firmy
Źródło: CNBC