Jak się obawiano, unijne prawo dotyczące skanowania CSAM może zakazać pełnego szyfrowania wiadomości
Wczoraj dowiedzieliśmy się, że proponowana nowa ustawa UE dotycząca skanowania CSAM dla gigantów technologicznych zmusi Apple do ponownego przyjrzenia się własnym planom wykrywania materiałów związanych z wykorzystywaniem seksualnym dzieci. Firma po cichu odłożyła je na bok w odpowiedzi na ogromną liczbę kontrowersji związanych z proponowanym przez nią podejściem.
Wielu obawiało się, że proponowana ustawa pociągnie za sobą kolejny atak na szyfrowane wiadomości typu end-to-end, a teraz zostało to potwierdzone przez sformułowanie w dokumencie…
Tło
Nie ma wątpliwości, że z materiałami przedstawiającymi seksualne wykorzystywanie dzieci istnieje duży problem. National Center for Missing & Exploited Children (NCMEC) powiedział, że w zeszłym roku otrzymał 29,3 mln zgłoszeń, z których prawie wszystkie pochodziły od dostawców usług internetowych i firm działających w chmurze w wyniku skanowania CSAM na ich serwerach.
Pytanie brzmi, jak najlepiej sobie z tym poradzić, nie naruszając prywatności niewinnych użytkowników. Apple w zeszłym roku myślał, że rozwiązało ten problem. Ogłoszono plany skanowania na urządzeniu w sposób, który oznaczał, że tylko potwierdzone dopasowania będą kiedykolwiek oglądane przez ludzkiego moderatora.
Jednak eksperci i obrońcy prywatności szybko wskazali cztery problemy związane z podejściem Apple. Firma znalazła rozwiązanie jednego z nich – przypadkowych fałszywych alarmów – ustawiając próg ponad 30 obrazów, aby zgłosić zgłoszenie. Pozostałe trzy problemy pozostają.
Proponowane unijne przepisy dotyczące skanowania CSAM
Unia Europejska opublikowała wczoraj projekt nowej ustawy, która zobowiąże gigantów technologicznych do przeprowadzenia skanowania CSAM. Wymóg ten obejmuje nie tylko wykrywanie obrazów CSAM, ale także próby uwodzenia, które wymagałyby skanowania tekstu.
Obecnie nie jest to możliwe w przypadku iMessage ani innych aplikacji, takich jak WhatsApp, które wykorzystują szyfrowanie typu end-to-end.
Przewodowy raporty.
Wszystkie Twoje zdjęcia z WhatsApp, teksty iMessage i filmy Snapchat mogą zostać zeskanowane pod kątem obrazów i filmów przedstawiających wykorzystywanie seksualne dzieci zgodnie z nowo proponowanymi przepisami europejskimi. Plany, ostrzegają eksperci, mogą osłabić szyfrowanie typu end-to-end, które chroni miliardy wiadomości wysyłanych każdego dnia i utrudniać prywatność ludzi w Internecie […]
Zgodnie z planami firmy technologiczne — od usług hostingowych po platformy komunikacyjne — mogą zostać nakazane, aby „wykrywały” zarówno nowe, jak i wcześniej odkryte CSAM, a także potencjalne przypadki „pielęgnacji”. Wykrycie może mieć miejsce w wiadomościach na czacie, plikach przesłanych do usług online lub na stronach internetowych zawierających obraźliwe materiały […]
Europejska propozycja skanowania wiadomości ludzi spotkała się z frustracją ze strony organizacji zajmujących się prawami obywatelskimi i ekspertów ds. bezpieczeństwa, którzy twierdzą, że prawdopodobnie podważy szyfrowanie typu end-to-end, które stało się domyślne w aplikacjach do przesyłania wiadomości, takich jak iMessage, WhatsApp i Signal.
„Niesamowicie rozczarowujące, że proponowana regulacja UE w Internecie nie chroni szyfrowania typu end-to-end” – szef WhatsApp Will Cathcart tweetował. „Propozycja ta zmusiłaby firmy do skanowania wiadomości każdej osoby i poważnie zagroziłaby prywatności i bezpieczeństwu obywateli UE”. Każdy system, który osłabia szyfrowanie end-to-end, może zostać nadużyty lub rozszerzony w poszukiwaniu innych rodzajów treści, naukowcy mówią.
Ustawodawcy upierają się przy wzywaniu backdoorów do zaszyfrowanych wiadomości E2E, konsekwentnie nie rozumiejąc, że jest to technologiczna niemożliwość. Jak ujął to profesor ds. cyberbezpieczeństwa z Uniwersytetu Surrey, Alan Woodward: „Albo masz E2EE, albo nie”.
Woodward zauważa, że istnieje możliwe obejście: skanowanie na urządzeniu po odszyfrowaniu wiadomości. Ale że jest to dokładnie to samo podejście, które Apple zaproponował do zastosowania w przypadku skanowania CSAM, co doprowadziło do takiej furii dotyczącej możliwości nadużyć ze strony represyjnych rządów.
Zdjęcie: Ali Abdul Rahman /Unsplash
umieścić na youtube