Apple twierdzi, że nie rozszerzy kontrowersyjnej technologii CSAM

Apple twierdzi, że nie rozszerzy kontrowersyjnej technologii CSAM
            Apple ha tratado de desviar las críticas de su controvertido sistema de protección CSAM, pero al hacerlo, ha ilustrado exactamente lo que está en juego.</p><h2>La gran conversacion</h2><p>Apple anunció la semana pasada que introducirá un conjunto de medidas de protección infantil en iOS 15, iPad OS 15 y macOS Monterey cuando los sistemas operativos se lancen este otoño.
Oprócz innych zabezpieczeń system urządzenia skanuje Twoją bibliotekę zdjęć iCloud w poszukiwaniu dowodów na nielegalne zbiory pornografii dziecięcej (CSAM). Ochrona dzieci jest oczywiście całkowicie właściwa, ale obrońcy prywatności nadal obawiają się, że system Apple może stać się pełnoprawnym strażnikiem. Próbując złagodzić krytykę, Apple opublikowało kilka nowych informacji, w których próbuje wyjaśnić nieco więcej, jak działa ta technologia. Jak wyjaśniono w tym dokumencie Apple, technologia ta konwertuje obrazy na urządzeniu na cyfrowy skrót, który można porównać z bazą danych znanych obrazów CSAM po przesłaniu ich do Zdjęć iCloud.

zrób z tego haszysz

Chociaż analiza obrazu jest przeprowadzana na urządzeniu przy użyciu technologii mieszania Apple, nie wszystkie obrazy są oflagowane lub skanowane, tylko te zidentyfikowane jako CSAM. Apple twierdzi, że w rzeczywistości jest to ulepszenie polegające na tym, że firma nie skanuje całej biblioteki jednocześnie. „Istniejące techniki stosowane przez inne firmy analizują wszystkie zdjęcia użytkowników przechowywane w chmurze. Stwarza to zagrożenie dla prywatności wszystkich użytkowników ”- czytamy w nowym FAQ firmy. „Wykrywanie CSAM w Zdjęciach iCloud oferuje znaczne korzyści w zakresie prywatności w porównaniu z tymi technikami, uniemożliwiając Apple zapamiętywanie zdjęć, chyba że oba pasują do znanych obrazów CSAM i są uwzględnione na koncie iCloud. Zdjęcia, które zawierają zbiór znanych CSAM”. Mimo tych zapewnień nadal istnieją poważne obawy co do tego, w jakim stopniu system można rozszerzyć o monitorowanie innych form treści. W końcu, jeśli możesz zamienić zbiór obrazów CSAM w dane umożliwiające identyfikację, możesz zamienić wszystko w dane, na podstawie których można analizować dane osobowe. Adwokat Edward Snowden ostrzega: „Nie popełnij błędu: jeśli dziś możesz wyszukiwać pornografię dziecięcą, jutro możesz wyszukiwać wszystko. "

Przyjąć to z ufnością?

Apple twierdzi, że nie planuje przenosić swojego systemu na inne obszary. W swoim FAQ pisze: „Otrzymaliśmy już prośby o stworzenie i wdrożenie narzuconych przez rząd zmian, które naruszają prywatność użytkowników, i zdecydowanie je odrzuciliśmy. Będziemy nadal je odrzucać w przyszłości. Wyjaśnijmy sobie, że ta technologia ogranicza się do wykrywania CSAM przechowywanego w iCloud i nie zgodzimy się na żadną rządową prośbę o jej rozszerzenie. Na pierwszy rzut oka wydaje się to uspokajające. Ale zrozumiałe jest, że teraz, gdy ta technologia istnieje, kraje, które chcą zmusić Apple do rozszerzenia nadzoru urządzeń na problemy wykraczające poza CSAM, użyją wszelkiej dostępnej broni, aby wymusić ten problem. „Wszystko, czego potrzeba, aby rozszerzyć wąski backdoor, który buduje Apple, to rozszerzenie ustawień uczenia maszynowego w celu znalezienia dodatkowych rodzajów treści” – ostrzega Electronic Frontier Foundation. Zapobieganie temu będzie walką. Co oznacza, że ​​Apple ma przed sobą walkę.

Rozpoczęła się wojna o prywatność

To może być walka, którą Apple chce stoczyć. W końcu wiemy, że podjęliście wiele ważnych kroków w celu ochrony prywatności użytkowników w swoich ekosystemach, wiemy też, że popieracie zmiany w prawie chroniące prywatność w sieci. „Z pewnością nadszedł czas, nie tylko na kompleksowe prawo dotyczące prywatności tutaj w Stanach Zjednoczonych, ale także na globalne prawa i nowe umowy międzynarodowe, które chronią zasady minimalizacji danych, wiedzy użytkowników, dostępu użytkowników. Użytkownicy i bezpieczeństwo danych na całym świecie, " CEO Tim Cook powiedział w tym roku. Można argumentować, że głośne wprowadzenie przez Apple środków ochrony dzieci wywołało szerszą dyskusję na temat praw i prywatności w świecie online i połączonym. Jedynym sposobem, aby zapobiec rozprzestrzenianiu się systemu poza CSAM, jest pomóc Apple oprzeć się presji, aby to zrobić. W przypadku braku takiego wsparcia jest mało prawdopodobne, aby Apple wygrał samotnie ze wszystkimi rządami. W przypadku, gdy firma nie otrzyma wsparcia, pytanie brzmi, kiedy, a nie czy będzie zmuszona ustąpić A jednak rządy wciąż mogą osiągnąć porozumienie w sprawie prywatności w Internecie. Stawka jest wysoka. Istnieje ryzyko, że cegły na słonecznej ścieżce do sprawiedliwości, którą Cook od dawna próbował położyć, mogą stać się cegłami w murze, aby uniemożliwić tę podróż mieć miejsce. Zaletą jest to, że zdeterminowany wysiłek może pozwolić na stworzenie ram, które pozwolą na zakończenie tej ścieżki. Kontrowersje odzwierciedlają, jak wyboista stała się ta droga. Śledź mnie na Twitterze lub dołącz do mnie na AppleHolic bar & grill i grupach dyskusyjnych Apple na MeWe.
<p>Copyright © 2021 IDG Communications, Inc.</p>