Microsoft zablokował kontrowersyjne podpowiedzi w Copilot po skardze inżyniera

Autor: Bohdan Kaminskyi | 11.03.2024, 18:15
Microsoft zablokował kontrowersyjne podpowiedzi w Copilot po skardze inżyniera
Microsoft

Microsoft ograniczył niektóre typy zapytań w swoim generatywnym narzędziu sztucznej inteligencji Copilot po tym, jak inżynier firmy poskarżył się na generowanie systematycznych obrazów zawierających przemoc, treści seksualne i inne nieodpowiednie treści.

Co wiadomo

Copilot blokuje teraz takie podpowiedzi, gdy wpisujesz terminy takie jak "pro choice", nazwy narkotyków lub wzmianki o broni w rękach dzieci. Usługa ostrzega również, że wielokrotne łamanie zasad może skutkować zablokowaniem konta.

Zmiany nastąpiły wkrótce po tym, jak Shane Jones, który pracował w Microsoft przez sześć lat, napisał list do Federalnej Komisji Handlu Stanów Zjednoczonych (FTC), skarżąc się na brak odpowiednich środków bezpieczeństwa w produktach firmy opartych na sztucznej inteligencji.

Inżynier testował Copilot Designer od grudnia i odkrył, że w przypadku zapytań zawierających stosunkowo neutralne terminy, system generował szokujące obrazy demonów zjadających niemowlęta i postaci w brutalnych scenach.

Podczas gdy nowe filtry blokują wiele kontrowersyjnych podpowiedzi, użytkownicy Copilot nadal mogą uzyskać dostęp do niektórych brutalnych scenariuszy, a także generować obrazy postaci chronionych prawem autorskim.

Microsoft powiedział, że nadal ulepsza kontrolę nad treściami generowanymi przez sztuczną inteligencję i wzmacnia filtry bezpieczeństwa, aby zapobiec nadużyciom.

Firma już wcześniej spotkała się z ogromną krytyką za pojawienie się wyraźnych zdjęć celebrytów wygenerowanych za pomocą Copilot Designer.

Dla tych, którzy chcą wiedzieć więcej:

Źródło: CNBC