W tym gościnnym blogu naszego kolegi Johna Carra przedstawiamy dobre wieści na temat najnowszych działań Apple, które pomogą chronić dzieci przed wykorzystywaniem seksualnym w Internecie. Wszystkie blogi Johna można znaleźć na Desiderata.

„W globalnej siedzibie ECPAT International w Bangkoku panowała wielka radość. W zeszłym tygodniu praca, którą wykonujemy z naszymi partnerami wokół silnego szyfrowania otrzymało ogromny impuls, gdy Apple ogłosiło niezwykle ważne ogłoszenie o swoich planach zapewnienia dzieciom bezpieczeństwa w Internecie. Nie wszystkim się to podoba, ale my to uwielbiamy.

Kot wyszedł z worka

Kot jest teraz zdecydowanie poza workiem. Apple potwierdziło rdzeń argumentu wysunięte przez ECPAT. Dostępne są skalowalne rozwiązania, które nie łamią szyfrowania, szanują prywatność użytkowników, a jednocześnie znacząco ograniczają niektóre rodzaje zachowań przestępczych, w tym przypadku straszne przestępstwa krzywdzące dzieci.

Jeśli ludzie wierzą, że Apple lub wrogie rządy mogą niewłaściwie wykorzystać tę technologię, jest to niezwykle ważna kwestia, ale sprawa jest inna. Mówi o tym, jak regulujemy lub nadzorujemy Internet. Zdecydowanie nie jest to argument, który pozwala przedsiębiorstwom na dalsze nicnierobienie w celu ograniczenia nielegalnej działalności tam, gdzie istnieje technologia, która im na to pozwala. Nie jest to również argument dla Apple „niewymyślony” co już wymyślił. 

To, co to jest, jest argumentem dla rządów i ustawodawców do nadrobienia zaległości. Szybko. 

W świecie technologii alibi dla bezczynności zawsze leżą na ziemi. Apple powinno być oklaskiwane. Nie tylko przesunęli igłę, ale dali jej ogromny i całkowicie korzystny cios. Firma nie poruszała się szybko i zepsutych rzeczy. Nie spieszył się i naprawił je.

Co więc planuje zrobić Apple?

Apple zapowiedź zawierał trzy elementy. Jeszcze w tym roku, w kolejnej wersji ich systemu operacyjnego, najpierw w USA, a następnie w poszczególnych krajach:

  1. Ogranicz możliwość odnalezienia przez użytkowników materiałów związanych z wykorzystywaniem seksualnym dzieci (csam) i ostrzegaj o środowiskach internetowych, które są niebezpieczne dla dzieci.
  2. Wprowadź nowe narzędzia, które pomogą rodzicom pomóc dzieciom zachować bezpieczeństwo w komunikacji online. W szczególności ostrzeżenie o wrażliwych treściach, które mogą być wysyłane lub zostały odebrane.
  3. Włącz wykrywanie csam na poszczególnych urządzeniach, zanim obraz wejdzie do zaszyfrowanego środowiska. Uniemożliwi to użytkownikowi przesyłanie csam lub dalsze rozpowszechnianie go w inny sposób. 

Numer trzy wywołał największe oburzenie.

Zmieniacz gry

Sam fakt, że firma taka jak Apple przyznała się do działania w tym obszarze i opracowała skalowalne rozwiązanie, zasadniczo zmienia charakter debaty. Teraz już coś wiemy mogą być zrobione "to nie jest możliwe"pozycja została pokonana. Każda firma internetowa, która odmawia zmiany swojego postępowania, prawdopodobnie znajdzie się po złej stronie opinii publicznej i prawdopodobnie prawa, ponieważ ustawodawcy na całym świecie poczują się teraz ośmieleni do działania zmusić firmy, aby robiły to, co Apple dobrowolnie zdecydowało się zrobić.

A cały niepokój?

Kilku komentatorów, którzy skądinąd wydawało się, że wyrażali sympatię dla wyznaczonego przez Apple celu, nie mogło się oprzeć próbie pozbycia się blasku ich coup de Théâtre narzekając na droga zrobili to. 

Jednak w 2019 r. jednostronne ogłoszenie Facebooka, że ​​zamierza zrobić dokładnie odwrotność tego, co proponuje teraz Apple, sugeruje, że możliwość osiągnięcia konsensusu branżowego była całkowicie iluzoryczna.

jestem pewien, że wielu”jest" trzeba kropkować, wiele „to” trzeba przekroczyć, ale czasami czuję, że jeśli chodzi o ochronę dzieci, wszystko musi być bezbłędne z pułapek. W przypadku Big Tech jest w porządku, aby działać szybko i niszczyć rzeczy w innych miejscach i naprawiać je później, lub nie. Ale nie można do tego dopuścić w tym dziale. Można szaleńczo wprowadzać innowacje, ale nie tutaj. Jesteśmy oceniani według innego standardu.

Nie zrozum mnie źle. Nie jestem zwolennikiem niedoskonałości. Nie pochwalam innowacji, która nie zwraca uwagi na wady. 

Prawda jest jednak taka, że ​​cały ten biznes dotyczy wartości i priorytetów. Jest całkowicie binarny. Albo uważasz, że należy podjąć kroki, aby zminimalizować ryzyko dla dzieci, zanim zawartość zostanie zaszyfrowana, albo nie. Nie ma pośredniej drogi, ponieważ gdy jest zaszyfrowana, jest niewidoczna na zawsze. Źli wygrywają. Apple pokazało, jak przegrywają.

Dobre wieści od Apple

Szyfrowanie nie jest zepsute. Żadne nowe dane nie są zbierane ani wykorzystywane

W kolejnym oświadczeniu wydanym przez Apple wczoraj dają jasno do zrozumienia, że ​​nie łamią żadnego rodzaju szyfrowania. Wyjaśniają również, że ich technologia ma ograniczony zakres i nie będą jej używać do żadnych innych celów.

Jeśli nie wierzysz, że wracamy do punktu, o którym mówiłem wcześniej. Porozmawiajmy o tym, ale bez względu na wynik dyskusji, Apple musi mieć pozwolenie i zachęcać do kontynuowania. Z niecierpliwością czekam, aż inne firmy zobowiążą się pójść w ich ślady. Już wkrótce."

List w Financial Times

W dniu 12 sierpnia 2021 r. John Carr opublikował także pismo w tej sprawie w Financial Times. Pochwala decyzję Apple dotyczącą planów ograniczenia możliwości rozpowszechniania materiałów związanych z wykorzystywaniem seksualnym dzieci za pośrednictwem ich urządzeń lub sieci. John zasugerował również, że zmusi Facebooka do ponownego rozważenia swoich skrajnie złych intencji. Pełny tekst listu to…

„W swoim artykule o planach Apple dotyczących wprowadzenia nowej polityki ochrony dzieci, Richard Waters sugeruje, że sposób, w jaki Apple to zrobił, „skrócił debatę” na temat potencjalnego wpływu planowanych środków (Opinia, 10 sierpnia). 

W szczególności Waters odnosi się do planu Apple dotyczącego kontroli treści na urządzeniach użytkowników przed ich przesłaniem i umieszczeniem w silnie zaszyfrowanym środowisku, takim jak iCloud. Apple zamierza to zrobić, aby upewnić się, że firma nie pomaga i nie ułatwia dystrybucji materiałów związanych z wykorzystywaniem seksualnym dzieci. 

Niestety „debata” trwa od co najmniej pięciu lat i przez większą część tego czasu została całkowicie zamrożona. Sytuacja nasiliła się, gdy w marcu 2019 r. Facebook ogłosił, że (zamierza) zrobić dokładne przeciwieństwo tego, co proponuje teraz Apple. To również była jednostronna decyzja, tym gorsza, że ​​w przeciwieństwie do Apple, była ona podjęta na dobrze udokumentowanym tle Facebooka, który już wiedział, że jego obecnie niezaszyfrowane platformy Messenger i Instagram Direct są masowo wykorzystywane do celów przestępczych. 

W 2020 r. do władz amerykańskich dotarło 20,307,216 XNUMX XNUMX zgłoszeń dotyczących materiałów o wykorzystywaniu seksualnym dzieci, które zostały wymienione za pośrednictwem Messengera lub Instagrama, ale Facebook jak dotąd nie dał żadnych oznak, że wycofa się. 

Trzeba dokonać wyboru

Obawiam się, że argument jest binarny. Gdy materiał jest mocno zaszyfrowany, staje się niewidoczny dla organów ścigania, sądów i samej firmy. Więc albo chcesz z tym żyć, albo nie. Facebook jest. Apple nie. 

Podejrzewam jednak, że decyzja Apple zmusi Facebooka i innych do ponownego przemyślenia. Dostępne są skalowalne rozwiązania, które mogą szanować prywatność użytkowników, a jednocześnie zwalczać przynajmniej niektóre rodzaje zachowań przestępczych, w tym przypadku straszne przestępstwa krzywdzące dzieci.

Jeśli ludzie wierzą, że Apple lub wrogie rządy mogą nadużywać tej technologii, jest to ważny, ale inny punkt, który mówi o tym, jak regulujemy lub nadzorujemy Internet. Zdecydowanie nie jest to argument, który pozwala firmom nie robić nic w celu ograniczenia nielegalności tam, gdzie istnieje technologia, która im na to pozwala. Apple powinno być oklaskiwane. Nie tylko poruszyła igłą, ale dała jej ogromne i całkowicie korzystne pchnięcie”.