Gigant technologiczny Apple powiadomił, że zamierza wprowadzić system kontrolujący zdjęcia załadowane w iCloud, żeby wykrywać treści związane z pornografią dziecięcą. Eksperci obawiają się, że to będzie ingerencja w prywatność użytkowników.

System do wykrywania CSAM (skrót od Children Sexual Abuse Material, czyli "treści z wykorzystywaniem seksualnym dzieci" - przyp. red.) będzie działał poprzez algorytm skanujący zdjęcia wysyłane na iCloud i porównywał z sygnaturami oznaczającym dziecięcą pornografię. Jeżeli zostanie wykryte powiązanie z sygnaturą, obraz będzie przesyłany na "chmurę" (iCloud) z niewidocznym dla użytkownika zgłoszeniem, że wykryto nieodpowiednie treści. 

Gdy zbierze się ich wystarczająca liczba, w proces zostanie zaangażowany pracownik Apple, który zweryfikuje, czy zdjęcia faktycznie dotyczą pornografii dziecięcej i zawiadomi ewentualnie organy ścigania.

Apple uzasadnił, że dzięki systemowi zamierza sprostać dwóm wyzwaniom: prośbom organów ścigania o pomoc w powstrzymywaniu wykorzystywania seksualnego dzieci oraz wprowadzaniem praktyk ochrony prywatności i bezpieczeństwa użytkowników.

Decyzja budzi kontrowersje

Reuters zauważył, że niektórzy eksperci ds. prywatności i bezpieczeństwa wyrazili na Twitterze obawy, że system może zostać rozszerzony o ogólne skanowanie smartfonów pod kątem innych zabronionych treści bądź wypowiedzi politycznych.

Bez względu na to, jakie mają długoterminowe plany, Apple wysłało bardzo wyraźny sygnał. Według nich bezpieczeństwem jest budowanie systemów, które skanują telefony użytkowników pod kątem zabronionych treści - ocenił Matther Green, naukowiec z uniwersytetu Johnsa Hopkinsa. Nie ma znaczenia, czy okaże się, że w tej kwestii mają rację. To przekroczy granice, rządy zaczną wymagać tego od wszystkich - dodał.