Apple odracza wdrożenie kontrowersyjnych funkcji bezpieczeństwa dzieci, aby wprowadzić poprawki

Apple odracza wdrożenie kontrowersyjnych funkcji bezpieczeństwa dzieci, aby wprowadzić poprawki

Apple ogłosił dzisiaj, że odkłada wprowadzenie funkcji bezpieczeństwa dzieci, które ogłosił w zeszłym miesiącu po otrzymaniu negatywnych opinii.

Planowane funkcje obejmują skanowanie bibliotek iCloud Photos użytkowników w poszukiwaniu materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM), funkcję bezpieczeństwa komunikacji ostrzegającą dzieci i ich rodziców przed otrzymywaniem lub wysyłaniem zdjęć o charakterze seksualnym oraz rozszerzone zalecenia dotyczące CSAM w Siri i wyszukiwarce. 

Apple potwierdziło, że opinie klientów, grup non-profit i rzeczników, naukowców i innych osób na temat planów firmy spowodowały opóźnienie. Firma potrzebuje czasu na wprowadzenie usprawnień.

Zestaw funkcji związanych z bezpieczeństwem dzieci miał pierwotnie zadebiutować w USA wraz z aktualizacjami systemów iOS 15, iPadOS 15, watchOS 8 i macOS Monterey. Teraz nie jest jasne, kiedy Apple planuje wydać "krytycznych" funkcji, ale nie wygląda na to, że planuje zrezygnować z jego intencji.

Źródło: 9to5mac

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();