Etter mye tilbakemelding fra både kritikere og brukere, utsetter Apple sine tiltak mot barnemishandling.
I august kunngjorde teknologigiganten først en ny policy som bruker teknologi for å oppdage potensielle bilder av overgrep mot barn i iCloud og Messages, men bekymringer fulgte den. Eksperter advarte om at selv om Apple lovet brukernes personvern, vil teknologien til slutt sette alle Apple-brukere i fare.
På fredag sa Apple at de ville forsinke utrullingen av teknologien helt for å gjøre forbedringer og fullt ut sikre brukernes personvern.
"Basert på tilbakemeldinger fra kunder, påvirkningsgrupper, forskere og andre, har vi bestemt oss for å bruke ekstra tid i løpet av de kommende månedene for å samle inn innspill og gjøre forbedringer før vi slipper disse kritisk viktige barnesikkerhetsfunksjonene," sa Apple i en oppdatert uttalelse på sin hjemmeside.
Teknologien for gjenkjenning av materiale for seksuelle overgrep mot barn skulle bli tilgjengelig senere i år i iOS 15-utrullingen, men det er nå uklart når, eller om, funksjonen vil debutere.
Den nye teknologien vil fungere på to måter: For det første ved å skanne et bilde før det sikkerhetskopieres til iCloud. Hvis bildet samsvarer med kriteriene til CSAM, vil Apple motta disse dataene. Den andre delen av teknologien bruker maskinlæring for å identifisere og uskarpe seksuelt eksplisitte bilder barn mottar gjennom meldinger.
Men etter at den nye policyen ble kunngjort, sa personvernforkjempere og grupper at Apple i hovedsak åpner en bakdør som dårlige skuespillere kan misbruke.
For å løse disse bekymringene ga Apple ut en FAQ-side kort tid etter kunngjøringen av CSAM-teknologien. Apple forklarte at teknologien ikke ville skanne alle bildene som er lagret på en enhet, bryte ende-til-ende-kryptering i Messages, og ikke falskt flagge uskyldige personer til politiet.