Pas shumë reagimesh nga kritikët dhe përdoruesit, Apple po vonon masat e saj kundër abuzimit të fëmijëve.
Në gusht, gjigandi i teknologjisë fillimisht njoftoi një politikë të re që përdor teknologjinë për të dalluar imazhet e mundshme të abuzimit të fëmijëve në iCloud dhe Messages, por shqetësimet e pasuan atë. Ekspertët paralajmëruan se edhe pse Apple premtoi privatësinë e përdoruesit, teknologjia përfundimisht do t'i rrezikonte të gjithë përdoruesit e Apple.
Të Premten, Apple tha se do të vononte fare përhapjen e teknologjisë për të bërë përmirësime dhe për të siguruar plotësisht privatësinë e përdoruesit.
"Bazuar në komentet nga klientët, grupet e avokimit, studiuesit dhe të tjerët, ne kemi vendosur të marrim kohë shtesë gjatë muajve të ardhshëm për të mbledhur të dhëna dhe për të bërë përmirësime përpara se të publikojmë këto veçori kritike të sigurisë së fëmijëve," tha Apple në një deklaratë e përditësuar në faqen e saj të internetit.
Teknologjia e zbulimit të materialit të abuzimit seksual të fëmijëve supozohej të bëhej e disponueshme më vonë këtë vit në prezantimin e iOS 15, por tani është e paqartë se kur ose nëse do të debutojë funksioni.
Teknologjia e re do të funksiononte në dy mënyra: së pari, duke skanuar një imazh përpara se të rezervohet në iCloud. Nëse ai imazh përputhet me kriteret e CSAM, Apple do t'i merrte ato të dhëna. Pjesa tjetër e teknologjisë përdor mësimin e makinerisë për të identifikuar dhe turbulluar imazhet seksualisht eksplicite që marrin fëmijët përmes Mesazheve.
Megjithatë, pasi u shpall politika e re, avokatët dhe grupet e privatësisë thanë se Apple në thelb po hap një derë të pasme që aktorët e këqij mund ta keqpërdorin.
Për të adresuar këto shqetësime, Apple lëshoi një faqe FAQ menjëherë pasi shpalli teknologjinë CSAM. Apple shpjegoi se teknologjia nuk do të skanojë të gjitha fotot e ruajtura në një pajisje, nuk do të thyejë enkriptimin nga skaji në fund në Mesazhet dhe nuk do të flamurojë në mënyrë të rreme njerëzit e pafajshëm te zbatimi i ligjit.