Pracownik Microsoftu złożył skargę do FTC w sprawie bezpieczeństwa generatora AI Copilot Designer
Microsoft
Shane Jones, inżynier sztucznej inteligencji w firmie Microsoft, złożył skargę do amerykańskiej Federalnej Komisji Handlu (FTC) w sprawie bezpieczeństwa generatora obrazów Copilot Designer AI.
Co wiadomo
Według Jonesa, który pracuje w Microsoft od sześciu lat, firma "odmówiła" usunięcia Copilot Designer. Wielokrotnie ostrzegał, że narzędzie może tworzyć szkodliwe treści.
W swoim liście do FTC inżynier wskazał, że podczas testów sztuczna inteligencja generowała "demony i potwory wraz z terminologią związaną z prawami do aborcji, nastolatkami z karabinami szturmowymi, seksualizowanymi obrazami kobiet w brutalnych scenach oraz piciem alkoholu i zażywaniem narkotyków przez nieletnich".
Ponadto, jak twierdzi Jones, narzędzie generowało obrazy postaci Disneya na tle zniszczeń w Strefie Gazy i w mundurach armii izraelskiej.
Inżynier próbował ostrzec Microsoft o problemach z konstruktorem DALLE-3 używanym w Copilot Designer od grudnia ubiegłego roku. Opublikował list otwarty na LinkedIn, ale prawnicy firmy zażądali jego usunięcia.
"W ciągu ostatnich trzech miesięcy wielokrotnie wzywałem Microsoft do zawieszenia publicznego korzystania z Copilot Designer do czasu wdrożenia lepszych środków bezpieczeństwa. Ale oni zignorowali moje ostrzeżenia " - stwierdził Jones.
Microsoft oświadczył, że jest zaangażowany w rozwiązywanie obaw pracowników zgodnie z polityką firmy i przeprowadził wewnętrzne dochodzenie w sprawie obaw inżyniera.
Wcześniej dyrektor generalny Microsoftu Satya Nadella nazwał wygenerowane przez Copilot Designer zdjęcia piosenkarki Taylor Swift "niepokojącymi i przerażającymi", obiecując ulepszenie systemów kontroli.
Dla tych, którzy chcą wiedzieć więcej:
Źródło: The Verge