Pracownik Microsoftu złożył skargę do FTC w sprawie bezpieczeństwa generatora AI Copilot Designer

Autor: Bohdan Kaminskyi | 07.03.2024, 16:38
Pracownik Microsoftu złożył skargę do FTC w sprawie bezpieczeństwa generatora AI Copilot Designer
Microsoft

Shane Jones, inżynier sztucznej inteligencji w firmie Microsoft, złożył skargę do amerykańskiej Federalnej Komisji Handlu (FTC) w sprawie bezpieczeństwa generatora obrazów Copilot Designer AI.

Co wiadomo

Według Jonesa, który pracuje w Microsoft od sześciu lat, firma "odmówiła" usunięcia Copilot Designer. Wielokrotnie ostrzegał, że narzędzie może tworzyć szkodliwe treści.

W swoim liście do FTC inżynier wskazał, że podczas testów sztuczna inteligencja generowała "demony i potwory wraz z terminologią związaną z prawami do aborcji, nastolatkami z karabinami szturmowymi, seksualizowanymi obrazami kobiet w brutalnych scenach oraz piciem alkoholu i zażywaniem narkotyków przez nieletnich".

Ponadto, jak twierdzi Jones, narzędzie generowało obrazy postaci Disneya na tle zniszczeń w Strefie Gazy i w mundurach armii izraelskiej.

Inżynier próbował ostrzec Microsoft o problemach z konstruktorem DALLE-3 używanym w Copilot Designer od grudnia ubiegłego roku. Opublikował list otwarty na LinkedIn, ale prawnicy firmy zażądali jego usunięcia.

"W ciągu ostatnich trzech miesięcy wielokrotnie wzywałem Microsoft do zawieszenia publicznego korzystania z Copilot Designer do czasu wdrożenia lepszych środków bezpieczeństwa. Ale oni zignorowali moje ostrzeżenia " - stwierdził Jones.

Microsoft oświadczył, że jest zaangażowany w rozwiązywanie obaw pracowników zgodnie z polityką firmy i przeprowadził wewnętrzne dochodzenie w sprawie obaw inżyniera.

Wcześniej dyrektor generalny Microsoftu Satya Nadella nazwał wygenerowane przez Copilot Designer zdjęcia piosenkarki Taylor Swift "niepokojącymi i przerażającymi", obiecując ulepszenie systemów kontroli.

Dla tych, którzy chcą wiedzieć więcej:

Źródło: The Verge