Gyermekpornó után kutathat a mobilokon az Apple
![Depressed little boy sitting on the floor Desaturated Preschooler Unrecognizable Person Boys Orphan Child Abuse 3-4 Years Pain 4-5 Years Child Poverty Crying Sitting One Person Confusion Problems Sadness Depression - Sadness Loneliness Social Issues Child](https://cdn.origo.hu/2023/12/_R_s_qWvx0TGR6p7i7BW6vcOlbEQ_xpJCfvBGCUZH5U/fill/1347/758/no/1/aHR0cHM6Ly9jbXNjZG4uYXBwLmNvbnRlbnQucHJpdmF0ZS9jb250ZW50LzRiY2I1MTBhZDVlNTRjMzE4ZmE4OGRlM2M4MWRkN2U1.webp)
Meghökkentő értesüléssel állt elő a Johns Hopkins Egyetemen kriptográfiát oktató Matthew Green, a szakember több forrása szerint az Apple hamarosan bemutat majd egy új rendszert, amellyel automatizáltan gyermekbántalmazásos anyagok után fog kutatni a felhasználók eszközein. Az iPhone mellett jó eséllyel az iPad és Mac termékek sem maradnának nélküle, elsőként pedig olyan fotók esetén vetné be fejlesztést, amelyeket a felhasználók szinkronizáltak az iCloud felhőtárhelyükre.
A források szerint úgy működik majd a detektálás, hogy az Apple megkapja a megerősített bántalmazásos képek ujjlenyomatait az amerikai National Center for Missing & Exploited Children szervezettől, a mobilozók és a számítógépezők eszközei pedig szintén ujjlenyomatokat készítenek a majd a háttértáraikon lévő, iClouddal szinkronizált képekről. Végül ha megadott számúnál több egyezés van az ujjlenyomatokban, akkor a rendszer jelentené a helyzetet az Apple számára.
Egyelőre nem világos, hogy ezután mi történne, de a problémás fotóknak elméletileg meg kell lenniük a felhasználók online fiókjaiban, így a rendőrség bevonása előtt az Apple moderátorai ellenőrizni tudnák a riasztások megalapozottságát, nehogy fals pozitívok miatt tévesen ártatlanokra uszítsák a hatóságot.
Green értesülései szerint a használni kívánt ujjlenyomatozó algoritmust az Apple fejleszti.
Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!