Microsoft zablokował kontrowersyjne podpowiedzi w Copilot po skardze inżyniera


Microsoft

Microsoft ograniczył niektóre typy zapytań w swoim generatywnym narzędziu sztucznej inteligencji Copilot po tym, jak inżynier firmy poskarżył się na generowanie systematycznych obrazów zawierających przemoc, treści seksualne i inne nieodpowiednie treści.

Co wiadomo

Copilot blokuje teraz takie podpowiedzi, gdy wpisujesz terminy takie jak "pro choice", nazwy narkotyków lub wzmianki o broni w rękach dzieci. Usługa ostrzega również, że wielokrotne łamanie zasad może skutkować zablokowaniem konta.

Zmiany nastąpiły wkrótce po tym, jak Shane Jones, który pracował w Microsoft przez sześć lat, napisał list do Federalnej Komisji Handlu Stanów Zjednoczonych (FTC), skarżąc się na brak odpowiednich środków bezpieczeństwa w produktach firmy opartych na sztucznej inteligencji.

Inżynier testował Copilot Designer od grudnia i odkrył, że w przypadku zapytań zawierających stosunkowo neutralne terminy, system generował szokujące obrazy demonów zjadających niemowlęta i postaci w brutalnych scenach.

Podczas gdy nowe filtry blokują wiele kontrowersyjnych podpowiedzi, użytkownicy Copilot nadal mogą uzyskać dostęp do niektórych brutalnych scenariuszy, a także generować obrazy postaci chronionych prawem autorskim.

Microsoft powiedział, że nadal ulepsza kontrolę nad treściami generowanymi przez sztuczną inteligencję i wzmacnia filtry bezpieczeństwa, aby zapobiec nadużyciom.

Firma już wcześniej spotkała się z ogromną krytyką za pojawienie się wyraźnych zdjęć celebrytów wygenerowanych za pomocą Copilot Designer.

Dla tych, którzy chcą wiedzieć więcej:

Źródło: CNBC

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();