Óriási vihart kavarva az Apple nagyjából egy hónapja bejelentette a gyermekbántalmazásos anyagok detektálására kitalált rendszerét, ez a mobileszközeiről és a számítógépeiről az iCloud felhőtárhelyre feltölteni kívánt fotók ujjlenyomatait veti össze az ismert pornográf képek ujjlenyomataival. Az eredeti terv szerint a megoldás az ősszel érkező iOS 15, iPadOS 15, továbbá macOS Monterey operációs rendszerekben debütált volna.
Ugyan jó szándékú fejlesztésről van szó, ám az Apple univerzálisan negatív visszajelzéseket kapott miatta többek közt jogvédő csoportoktól és tudományos közösségektől. Az aggodalom szerint egyes kormányzatok visszaélhetnének a lehetőséggel, például üldözött személyek és csoportok felkutatására használhatnák, ráadásul az Apple semmit sem tudna tenni ez ellen.
A kritikákat eddig lesöpört Apple most váratlanul változtatott az álláspontján, állítása szerint elhalasztja a rendszer bevezetését, a következő hónapokban a visszajelzések figyelembe vételével finomításokat kíván bevezetni a működésében. Nem világos, hogy miféle változtatásokról van szó, konkrétumokat nem közölt a vállalat.
Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!