Apple oficjalnie ujawniło "ulepszone środki ochrony dzieci". Dlaczego jest to ważne i kto jest narażony na ryzyko?

Autor: Yuriy Stanislavskiy | 06.08.2021, 12:02

The gg dawno wczoraj, że Apple planuje wprowadzić "wzmocnione środki ochrony dzieci" do swojego ekosystemu. Cóż, dziś jest to już rzeczywistość, której mitologiczne zagrożenie jest podsycane przez różne media. Przyjrzyjmy się, jak działa ten nowy system oraz co i komu tak naprawdę zagraża.

Dość szczegółowe informacje Apple zamieszczono na specjalnej stronie poświęconej temu nowemu systemowi. Co tam jest napisane?"

1. bezpieczna komunikacja w Wiadomościach

.

Aplikacja Wiadomości będzie miała nowe narzędzia do ostrzegania dzieci i ich rodziców przed otrzymywaniem lub wysyłaniem zdjęć o charakterze seksualnym.

W przypadku otrzymania tego rodzaju treści, zdjęcie zostanie zamazane, a dziecko zostanie ostrzeżone, otrzyma pomocne materiały i zostanie zapewnione, że nie ma nic przeciwko, jeśli nie chce oglądać zdjęcia. Jako dodatkowe zabezpieczenie, dziecko może być również poinformowane, że w celu zapewnienia mu bezpieczeństwa, jego rodzice zostaną powiadomieni, jeśli obejrzy zdjęcie.

Analogiczne środki ochronne są stosowane w przypadku próby wysłania przez dziecko zdjęć o charakterze seksualnym. Dziecko zostanie ostrzeżone przed wysłaniem zdjęcia, a rodzice mogą otrzymać wiadomość, jeśli dziecko zdecyduje się je wysłać.

Wiadomości wykorzystują uczenie maszynowe na urządzeniu do analizy załączników obrazu i określić, czy zdjęcie jest seksualnie jednoznaczne. Funkcja jest tak zaprojektowana, że Apple nie ma dostępu do wiadomości.

2. wykrywanie CSAM (

Materiałów związanych z seksualnym wykorzystywaniem dzieci).

Materiały przedstawiające seksualne wykorzystywanie dzieci (CSAM) to kolejny poważny problem w Internecie. CSAM odnosi się do treści przedstawiających akty seksualne z udziałem dziecka.

Aby rozwiązać ten problem, nowa technologia pozwoli firmie Apple wykrywać znane obrazy CSAM przechowywane w usłudze iCloud Photos. Dzięki temu Apple będzie mógł zgłaszać takie przypadki do Krajowego Centrum ds. Zaginionych i Wykorzystywanych Dzieci (NCMEC). NCMEC działa jako kompleksowe centrum raportowania CSAM i współpracuje z organami ścigania w całych Stanach Zjednoczonych.

Metoda firmy Apple do wykrywania znanych CSAM jest zaprojektowana z myślą o prywatności użytkowników. Zamiast skanować obrazy w chmurze, system wykonuje mapowanie na urządzeniu, korzystając z bazy danych znanych haseł obrazów CSAM dostarczonych przez NCMEC i inne organizacje zajmujące się bezpieczeństwem dzieci. Apple następnie przekształca tę bazę danych w nieczytelny zestaw haseł, które są bezpiecznie przechowywane na urządzeniach użytkowników.

Przed zapisaniem obrazu w Zdjęciach iCloud, na urządzeniu wykonywany jest proces porównania tego obrazu ze znanymi hashami CSAM. Ten proces dopasowania jest wykonywany przy użyciu techniki kryptograficznej zwanej częściową przecinką zbiorów, która określa, czy istnieje dopasowanie bez ujawniania wyniku. Urządzenie tworzy kryptograficzny kupon bezpieczeństwa, w którym zakodowany jest wynik dopasowania wraz z dodatkowymi zaszyfrowanymi danymi obrazu. Ten kupon jest przesyłany do iCloud Photos razem z obrazem.

Używając innej technologii zwanej progowym dzieleniem tajemnicy, system zapewnia, że zawartość kuponu bezpieczeństwa nie może być interpretowana przez Apple, dopóki konto iCloud Photos nie przekroczy progu znanej zawartości CSAM. Próg ten został ustalony w celu zapewnienia niezwykle wysokiego poziomu dokładności i gwarantuje mniej niż jedną na bilion szans rocznie na to, że konto zostanie błędnie oflagowane.

Tylko po przekroczeniu progu technologia kryptograficzna pozwala Apple na interpretację zawartości kuponów bezpieczeństwa powiązanych z odpowiednimi obrazami CSAM. Apple następnie ręcznie sprawdza każdy raport w celu potwierdzenia zgodności, dezaktywuje konto użytkownika i wysyła raport do NCMEC. Jeśli użytkownik uważa, że jego konto zostało omyłkowo oflagowane, może złożyć apelację o przywrócenie konta.

3. Zaawansowane podpowiedzi w Siri i wyszukiwaniu

.

Apple rozszerza również wskazówki w Siri i wyszukiwarce, zapewniając dodatkowe zasoby, aby pomóc dzieciom i rodzicom zachować bezpieczeństwo w sieci i uzyskać pomoc w niebezpiecznych sytuacjach. Na przykład użytkownicy, którzy zapytają Siri, w jaki sposób mogą zgłosić CSAM lub wykorzystywanie dzieci, zostaną skierowani do zasobów dotyczących tego, gdzie i jak dokonać zgłoszenia.

Siri i Search są również aktualizowane, aby interweniować, gdy użytkownicy szukają zapytań związanych z CSAM. Te interwencje wyjaśnią użytkownikom, że zainteresowanie tym tematem jest szkodliwe i problematyczne, oraz dostarczą zasobów partnerskich, aby uzyskać pomoc w rozwiązaniu tego problemu.

Siri

i Szukaj są również ulepszane, aby zapewnić pomoc, gdy użytkownicy wykonują wyszukiwania związane z CSAM.

Widok dla redaktorów

Redakcja gg pragnie zwrócić Państwa uwagę na kilka istotnych kwestii:

    .
  1. Nie chodzi tu o skanowanie wszystkich zdjęć przechowywanych na urządzeniach użytkowników. Istnieje hashowa baza danych znanych już zdjęć z molestowania dzieci. Porównywane są więc tylko te zdjęcia, których hash jest zgodny z bazą danych.
  2. Jeśli hash match zostanie znaleziony, Twoje zdjęcie zostanie faktycznie wysłane do kontrolera na żywo do przeglądu. Ale! Kontrolerzy nie zobaczą pełnego obrazu, tylko poszczególne elementy, które pozwolą im stwierdzić, czy zdjęcie CSAM.
  3. jest dopasowane czy nie.
  4. Faktyczne skanowanie odbywa się na urządzeniu użytkownika, zanim zdjęcie zostanie przesłane do biblioteki iCloud.
  5. Zostaniesz zgłoszony tylko jako próg zdjęcia nadużycia dziecka na swoim urządzeniu
  6. .
  7. Cały ten system zostanie uruchomiony dopiero wraz z premierą iOS 15, i to tylko w USA (na razie). Co więcej, jeśli biblioteka multimediów iCloud Photo jest wyłączona, skanowanie na urządzeniach klienckich nie będzie w ogóle przeprowadzane.

Słowo końcowe

.

Apple od dawna znane jest z gorliwego zaangażowania w ochronę danych użytkowników. Kilka lat temu, walczył z FBI w sądzie, a teraz Tim Cook jest w otwartej konfrontacji z Facebook CEO Mark Zuckerberg. Oczywiście, technologia hashowania nie jest idealna, ale na tym etapie rozwoju technologii nie wymyślono niestety nic lepszego, aby zrównoważyć ochronę danych osobowych z potrzebą zaostrzenia ścigania pedofilów.

Główne jest to, że Facebook nie był w stanie nic z tym zrobić.

Najważniejsze, Facebook, Dropbox, Google, Microsoft i inne firmy, które zapewniają cloud storage dla zdjęć użytkowników od dawna były skanowania ich bezpiecznie, przy użyciu tej samej bazy danych, że Apple teraz stuknął do. Dropbox zgłosił 21 000 takich dopasowań w 2020 roku, podczas gdy ten sam Facebook opublikował oszałamiającą liczbę 15 milionów dopasowań jeszcze w 2019 roku. Jedyną różnicą jest to, że wszystkie te firmy skanowanie zdjęć odbywa się w chmurze, podczas gdy Apple implementuje skaner na poziomie systemu operacyjnego.

Apple zamieściło szczegółowy opis całego procesu do publicznej wiadomości link (PDF, 2MB).

Źródło: https://www.apple.com/child-safety/