Kompanija Apple uvodi sistem za identifikaciju dečije pornografije.
Kompanija Apple planira da skenira američke iPhone telefone zbog fotografija seksualnog zlostavljanja dece, što je naišlo na odobravanje organizacija za zaštitu dece i istovremeno izazvalo zabrinutost među nekim bezbednosnim istraživačima da bi vlade mogle da zloupotrebe sistem za nadzor svojih građana.
Apple je objavio detalje sistema za pronalaženje materijala seksualnog zlostavljanja dece (CSAM) na uređajima korisnika u SAD, prema kojima će pre nego što se fotografija uskladišti na iCloud, tehnologija tražiti podudaranja sa već poznatim CSAM.
Sistem funkcioniše tako što upoređuje fotografije sa bazom poznatih slika seksualnog zlostavljanja dece koju su sastavili američki Nacionalni centar za nestalu i eksploatisanu decu (NCMEC) i druge organizacije za zaštitu dece.
Kompanija tvrdi da sistem ima izuzetno visok nivo tačnosti i osigurava manje od jedne od trilion šansi godišnje da se pogrešno označi dati nalog, a da će da, ako se pronađe podudaranje, ljudski faktor dalje ručno raditi procenu i prijaviti takvog korisnika policiji.
Međutim, postoji zabrinutost zbog ugrožavanja privatnosti i da bi ova tehnologija mogla da se proširi na skeniranje telefona u potrazi za zabranjenim sadržajem ili čak političkim govorom, a stručnjaci strahuju da bi autoritarne vlade mogle da koriste tu tehnologiju za špijuniranje svojih građana.
Za sada će ova tehnologija biti aktivirana i detaljno testirana u SAD, ali je plan da se kasnije proširi i na sve zemlje u kojima Apple posluje i sa kojima Apple bude mogao da ostvari saradnju sa državnim službama i zvaničnim institucijama za suzbijanje dečije pornografije.