Apple odracza wdrożenie kontrowersyjnych funkcji bezpieczeństwa dzieci, aby wprowadzić poprawki
Apple ogłosił dzisiaj, że odkłada wprowadzenie funkcji bezpieczeństwa dzieci, które ogłosił w zeszłym miesiącu po otrzymaniu negatywnych opinii.
Planowane funkcje obejmują skanowanie bibliotek iCloud Photos użytkowników w poszukiwaniu materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM), funkcję bezpieczeństwa komunikacji ostrzegającą dzieci i ich rodziców przed otrzymywaniem lub wysyłaniem zdjęć o charakterze seksualnym oraz rozszerzone zalecenia dotyczące CSAM w Siri i wyszukiwarce.
Apple potwierdziło, że opinie klientów, grup non-profit i rzeczników, naukowców i innych osób na temat planów firmy spowodowały opóźnienie. Firma potrzebuje czasu na wprowadzenie usprawnień.
Zestaw funkcji związanych z bezpieczeństwem dzieci miał pierwotnie zadebiutować w USA wraz z aktualizacjami systemów iOS 15, iPadOS 15, watchOS 8 i macOS Monterey. Teraz nie jest jasne, kiedy Apple planuje wydać "krytycznych" funkcji, ale nie wygląda na to, że planuje zrezygnować z jego intencji.
Źródło: 9to5mac