Nie. Ochrona danych i ochrona dzieci nie wykluczają się. Międzynarodowa Sieć na rzecz Praw Dziecka zaświadcza o tym na dobrych 100 stronach raportu. Analiza ta może przenieść debatę na temat najcięższego projektu nadzoru w Europie na nowy poziom.

“Więcej inwigilacji dla zwiększenia ochrony dzieci” - to sedno trzech propozycji legislacyjnych w UE, Wielkiej Brytanii i USA. Wprawdzie poszczególne regulacje różnią się od siebie, ale jedno je łączy: użytkownicy i użytkowniczki mają zrezygnować z prywatności w sieci, aby łatwiej było znaleźć jakieś wskazówki dot. przemocy seksualnej wobec nieletnich. Eksperci i ekspertki zajmujący się dochroną danych i prawami człowieka stanowczo się temu pomysłowi sprzeciwiają. Podczas gdy podobne prawodawstwo planowane jest w USA czy w Wielkiej Brytanii, to w krajach niemieckojęzycznych debata została zdominowana przez tzn. kontrolę czatu. Chodzi o rozporządzenie KE, które ma na celu “walkę z wykorzystywaniem seksualnym dzieci”. W tym celu dostawcy usług internetowych mają prześwietlać nawet prywatne wiadomości z chatów [czy komunikatorów]., jeśli zostanie im to nakazane. Rozporządzenie spotkało się z ostrą krytyką nie tylko ze strony społeczeństwa obywatelskiego, ale też ze strony samego organu nadzorującego ochronę danych w UE.

Sieć Praw Dziecka (Child Rights International Network, w skrócie CRIN) i brytyjska organizacja zajmującą się ochroną dzieci Defend Digital Me przedstawiły właśnie w Londynie szczegółową analizę. Ok. 100stronicowy raport pokazuje, że strony sporu mają “wizję tunelową”, a problem złożony z wielu aspektów potrzebuje rozwiązań na wielu płaszczyznach.

“Za polaryzacją kryje się bardziej złożona prawda” - czytamy w raporcie - “trzeba wyjść poza ramkę ‘prywatność vs ochrona dzieci’, aby chronić prawa wszystkich dzieci”.

W celu przeprowadzenia analizy aktywiści zajmujący się obroną praw dziecka zapoznali się z literaturą i przeprowadzili rozmowy z różnymi ludźmi: ofiarami przemocy seksualnej wobec dzieci, ekspertami zajmującymi się ochroną danych, ochroną dzieci, prawami podstawowymi czy technologią. Wśród rozmówców znaleźli się przedstawiciele brytyjskiej organizacji zajmującej się ochroną dzieci Internet Watch Foundation, spółki matki Facebooka - Meta oraz EFF (Electronic Frontier Foundation) - amerykańskiej organizacji zajmującej się podstawowymi prawami cyfrowymi.

Raport szczegółowo omawia możliwości techniczne mające teoretycznie chronić dzieci przed przemocą seksualną, analizuje “za i przeciw”, w rezultacie przedstawiając czytelny i wyczerpujący zbiór argumentów. Z analizy wynika, że kontrola czatu w formie proponowanej przez UE nadaje się raczej do kosza na śmieci. Zamiast tego eksperci zajmujący się ochroną dzieci proponują zastosowanie innych środków.

Jak szyfrowanie chroni dzieci

Po pierwsze: analiza obala mit, jakoby sytuacja dzieci pozbawionych możliwości bezpiecznego szyfrowania wiadomości (aby dostawcy usług internetowych mogli skanować wiadomości dla bezpieczeństwa nieletnich) była lepsza. Dzieci wiedziałyby bowiem, że ich komunikacja może być w każdej chwili monitorowana, a ich prywatność jest naruszana. Tymczasem, jak czytamy w raporcie, “prywatność pozwala dzieciom bezpiecznie rozwijać swoją osobowość i dowiadywać się, kim są”. Inwigilowane dzieci czułyby, że nie mogą naprawdę niezależnie i swobodnie wyrażać siebie, co może wpłynąć na ich rozwój. “Świadomość, że nie są pod stałym nadzorem, pomaga dzieciom budować zaufanie do rodziców, nauczycieli czy innych opiekunów” - dodaje raport. Zwiększa to prawdopodobieństwo, że dzieci poproszą o pomoc, gdy będą jej potrzebować. W raporcie wykorzystano fikcyjne przykłady, aby zobrazować, w jaki sposób kontrola czatu może zaszkodzić nieletnim. Jeden z nich dotyczy osoby “Alex”, posługujące się zaimkami they/them.

Alex ma 12 lat i pochodzi z bardzo konserwatywnej rodziny. Po urodzeniu dziecku została przypisana płeć żeńska, jednak od pewnego czasu Alex ma wątpliwości związane ze swoją tożsamością płciową. Dostrzegając zmiany w swoim ciele martwi się nimi i szuka sposobów, by wydawało się ono mniej “kobiecie”. Pewnego dnia, gdy rodziców nie ma w domu, Alex obwiązuje swoje piersi in wysyła ich zdjęcie do zaufanego przyjaciela. Telefon klasyfikuje treści jako seksualne. Rodzice dziecka zostają powiadomieni i otrzymują kopię zdjęcia"

Fatalne skutki

Ten przykład pokazuje, w jaki sposób automatyczna kontrola czatów może wywołać efekt odwrotny od zamierzonego. Przy czym w przypadku kontroli czatu proponowanej przez Komisję Europejską to nie sami rodzice mają być powiadamiani: usługodawcy mają zgłaszać podejrzane treści do unijnego centrum. Tam treści mają być przeglądane i sortowane przez ludzkich pracowników, co stanowi kolejną ingerencję w prywatność nieletnich. I dopiero potem raporty o podejrzanej aktywności mają być wysyłane do lokalnych władz. Nie tylko UE i Wielka Brytania chciałyby ingerować w szyfrowaną komunikację - inne państwa również przyglądają się ustawodawstwu. Ale debata jest “anglo- i europocentryczna”, mówi raport. Oznacza to, że skupia się wyłącznie na regionach anglojęzycznych i europejskich. Jednak regulacje mogą wywołać globalne efekt fali - ostrzega CRIN.

“Decydenci powinni zrozumieć, w jaki sposób jest to powiązane” - czytamy w raporcie. Technologie służące do automatycznego rozpoznawania cyfrowych treści można łatwo ponownie wykorzystać - także do identyfikacji treści legalnych. Innymi słowy, prawa wprowadzone w tzw. demokracjach zachodnich mogą utorować drogę do poważniejszych łamań praw człowieka w innych częściach świata. Inny fikcyjny przykład z raportu pokazuje, jak mogłoby to wyglądać w praktyce. W tym przykładzie kontrola czatu nie jest wykorzystywana do ograniczania przemocy seksualnej, ale jako broń przeciwko osobom nieheteronormatywnym:

“Amadou jest 17-letnim gejem. W jego kraju homoseksualizm jest nielegalny i napiętnowany, a osoby queer* regularnie doświadczają przemocy ze strony państwa i społeczeństwa. Amadou korzysta z nieszyfrowanych usług komunikacyjnych, aby spotkać się z innymi młodymi osobami queer i dzielić się informacjami na temat edukacji seksualnej. Policja przechwytuje komunikację i Amadou zostaje aresztowany. Policja wykorzystuje kontakty Amadou do identyfikacji i namierzania innych młodych ludzi.”

Alternatywne rozwiązania

Jednym z narzędzi technologicznych, które można by wykorzystać w celu ochrony dzieci, są mechanizmy sprawozdawcze. Dzięki nim małoletni mogliby się bronić lub prosić o pomoc, gdy są nękani lub stykają się z niepokojącymi treściami. CRIN zaleca: “Potrzebne są bezpłatne, skuteczne i przyjazne dzieciom mechanizmy składania skarg”. Dzieci powinny mieć możliwość poufnego i bezpiecznego zgłaszania treści oraz podejmowania działań przeciwko nim, w tym działań prawnych, jeśli sobie tego życzą.

Według sprawozdania, mechanizmy sprawozdawcze mogłyby być łatwo wdrożone i nie zagrażałyby ochronie danych i prywatności. Wielu dostawców internetowych już posiada takie możliwości. Jednym z problemów jest jednak praktyczna realizacja: reakcja świadczeniodawców na zgłoszenie często trwa zbyt długo, czasem nawet kilka tygodni - informuje CRIN i powołuje się na rozmowy z ekspertami z sektora pomocy ofiarom.

Raport podkreśla też, że nie można rozwiązań problemu przemocy seksualnej wobec dzieci jedynie za pomocą technologii. “Strzeżcie się rozwiązań technologicznych” - piszą w zaleceniach końcowych eksperci ds. ochrony dzieci. Problemem jest “tech-solutionism” - błedne przekonanie, że złożone problemy społeczne można rozwiązać za pomocą technologii. Często dominuje ono w wygórowanych oczekiwaniach wobec możliwości współczesnych programów komputerowych - tzw. sztucznej inteligencji. Niektórzy zwracają uwagę, że KE przecenia możliwości AI, jeśli chodzi o rozpoznawanie przez nią przedstawień wykorzystywania dzieci.

Wszystkich zaangażować

Ochrona dzieci wymaga ludzkiego zaufania, wymiany wiedzy i stabilnej infrastruktury - piszą dalej obrońcy i obrończynie praw dziecka. Wymaga to współdziałaniaróżnych podmiotów. W sprawozdaniu wymienionom. in. organy śledcze, pracowników socjalnych, osoby zajmujące się wsparciem dla ofiar, szkoły czy gabinety lekarskie. Przytoczono też cytaty z dyskusji ekspertów z brytyjskiej organizacji zajmującej się ochroną dzieci Marie Collins Foundation:

“czy to jako pracownicy socjalni, czy jako nauczyciele, wszyscy zawodzimy ofiary. I to nie dlatego, że brakuje nam chęci, a że brakuje nam środków/zasobów”

“Należy skupić się na profilaktyce i edukacji” - domaga się CRIN. Osoby pracujące z ofiarami powinny zostać przeszkolone w zakresie wykorzystania dowodów cyfrowych, a usługi związane z medyczną i psychologiczną pomocą dla ofiar powinny być traktowane priorytetowo. Tymczasem W grudniu wywiad netzpolitik.org z pracownikiem socjalnym z Berlina pokazał, jak bardzo także niemieckim urzędom ds. młodzieży w Niemczech brakuje środków.

*ktoś zwrócił mi uwagę, że to określenie jest obraźliwe, ale że to cytat, to zostawiłam. Nie wiem, czy użyto tego określenia oryginalnie w raporcie, bo nie udało mi się do niego dotrzeć

c.d. w komentarzu

  • @didleth@szmer.infoOP
    link
    fedilink
    11 year ago

    Hakowanie, skanowanie, szpiegowanie

    W prostych słowach obrońcy i obrończynie dzieci objaśnili i ocenili najważniejsze technologie służące do gromadzenia cyfrowych dowodów nadużyć i przemocy seksualnej. Np. zmuszanie dostawców internetowych do skanowania niezaszyfrowanych wiadomości i wykorzystanie PhotoDNA - technologii, która umożliwia porównywanie niezaszyfrowanych treści ze znanymi już przedstawieniami nadużyć. Skanowanie treści na urządzeniu użytkownika, zanim ta zostanie zaszyfrowana - tzw. Client-Side-Scanning. Państwo może także hakować urządzenia i infekować je oprogramowaniem służącym do inwigilacji, np. Pegasusem. Teoretycznie byłoby także możliwe, alby organy ścigania przeniknęły do zaszyfrowanego pokoju rozmów jako niewidoczni użytkownicy i potajemnie czytać konwersacje - ale dostawcy usług musieliby do tego dostosować swoje oprogramowanie. Propozycja w tej sprawie ze strony brytyjskiego wywiadu GCHQ została powszechnie odrzucona w 2019 roku. Raport objaśnia, dlaczego stosowanie takich rozwiązań jest szkodliwe. Państwowe hakerstwo opiera się na otwartych lukach w zabezpieczeniach - i luki te mogą zostać wykorzystanie nie tylko przez służby państwowe, ale też przez inne podmioty. Skanowanie po stronie klienta uderzyłoby w szyfrowanie end-to-end zrywając z podstawową ideą, że nie należy ruszać treści komunikatów.

    Ze szczegółowej analizy wynika, że żadne z zaproponowanych rozwiązań nie jest wolne od wad. Działacze CRIN jednak, w przeciwieństwie do członków cyfrowego społeczeństwa obywatelskiego, nie potępiają zasadniczo każdej ingerencji w szyfrowanie. O ile dla społeczeństwa obywatelskiego każda taka ingerencja jest nieakceptowalna, to działacze na rzecz praw dziecka zalecają zastosowanie wielu ograniczeń i nie zalecając żadnych konretnych interwencji. Jednocześnie, gdyby państwa zastosowały wspomniane ograniczenia, to prawdopodobnie wiele projektów inwigilacyjnych nie mogłoby działać.

    Piłka jest po stronie ustawodawców

    Autorzy raportu twierdzą, że interwencje w szyfrowanie nie powinny być ogólne, ale ukierunkowane. Potrzeba dokładnych danych o skali wykorzystywania dzieci w sieci oraz skuteczności rozpoznawania przez systemy automatyczne. Mamy tu do czynienia z deficytami: w obiegu znajdują się niezwykle mylące dane. Widać to chociażby na przykładzie doniesień netzpolitik.org dotyczących statystyk NCMEC, znanego na całym świecie ośrodka sprawozdawczego w zakresie molestowania w internecie z siedzibą w USA.

    CRIN zwraca też uwagę, że działania interwencyjne muszą być dostosowane do różnorodnego życia dzieci. Powinny uwzględnić kontekst polityczny, gospodarczy, społeczny i kulturowy, łącznie z kontekstem dot. dzieci z grup defaworyzowanych i demarginalizowanych.Jest to sformułowanie bardzo ogólne, ale odnosi się do różnych możliwych “szkód ubocznych” - jak np. takich, w których nieheteronormatywna osoba taka jak Alex wysyła swoje zdjęcie przyjacielowi. Dalej czytamy, że decydenci powinni lepiej rozumieć "zakres rzeczywistych możliwości w świecie cyfrowym. Za tym kwiecistym sformułowaniem kryje się zapewne ostre oskarżenie, a mianowicie: Wielu polityków chyba nie zrozumiało internetu - i nie rozumie, w jaki sposób planowane prawo mogłyby wszystko zepsuć.

    Jako przykład CRIN podało, że należy zachować możliwość komunikacji cyfrowej w kwestiach medycznych. Prawdopodobnie odnosi się to do tego, że automatyczny system rozpoznawania obrazów nie jest w stanie odróżnić, czy dany obraz to przykład wykorzystywania seksualnego, czy jedynie zdjęcie informacyjne dla lekarza. To zagadnienie nie jest stricte teoretyczne: w USA pewien ojciec popadł w spore tarapaty, gdy wysłał do lekarza zdjęcie genitaliów dziecka pytając o związane z nim problemy skórne.

    Raport CRIN i “Defend Digital Me” pojawia się w czasie, gdy wiele rzeczy jest jeszcze możliwych. Parlament Europejski i Rada Ministrów muszą teraz wypracować swoje stanowiska wobec propozycji Komisji Europejskiej. W USA upadł pomysł ustawy EARN IT, która była bardzo krytykowana, ale w międzyczasie pojawia się krytyka “Kids Online Safety Act” (KOSA). W Wielkiej Brytanii najbardziej zaawansowany jest odpowiedni projekt ustawy. Tam “Online Safey Bill” przeszedł już przez pierwszą izbę, Izbę Gmin, i trafił do Izby Lordów.