Apple utsetter teknologi mot overgrep mot barn

Apple utsetter teknologi mot overgrep mot barn
Apple utsetter teknologi mot overgrep mot barn
Anonim

Etter mye tilbakemelding fra både kritikere og brukere, utsetter Apple sine tiltak mot barnemishandling.

I august kunngjorde teknologigiganten først en ny policy som bruker teknologi for å oppdage potensielle bilder av overgrep mot barn i iCloud og Messages, men bekymringer fulgte den. Eksperter advarte om at selv om Apple lovet brukernes personvern, vil teknologien til slutt sette alle Apple-brukere i fare.

Image
Image

På fredag sa Apple at de ville forsinke utrullingen av teknologien helt for å gjøre forbedringer og fullt ut sikre brukernes personvern.

"Basert på tilbakemeldinger fra kunder, påvirkningsgrupper, forskere og andre, har vi bestemt oss for å bruke ekstra tid i løpet av de kommende månedene for å samle inn innspill og gjøre forbedringer før vi slipper disse kritisk viktige barnesikkerhetsfunksjonene," sa Apple i en oppdatert uttalelse på sin hjemmeside.

Teknologien for gjenkjenning av materiale for seksuelle overgrep mot barn skulle bli tilgjengelig senere i år i iOS 15-utrullingen, men det er nå uklart når, eller om, funksjonen vil debutere.

Den nye teknologien vil fungere på to måter: For det første ved å skanne et bilde før det sikkerhetskopieres til iCloud. Hvis bildet samsvarer med kriteriene til CSAM, vil Apple motta disse dataene. Den andre delen av teknologien bruker maskinlæring for å identifisere og uskarpe seksuelt eksplisitte bilder barn mottar gjennom meldinger.

Men etter at den nye policyen ble kunngjort, sa personvernforkjempere og grupper at Apple i hovedsak åpner en bakdør som dårlige skuespillere kan misbruke.

For å løse disse bekymringene ga Apple ut en FAQ-side kort tid etter kunngjøringen av CSAM-teknologien. Apple forklarte at teknologien ikke ville skanne alle bildene som er lagret på en enhet, bryte ende-til-ende-kryptering i Messages, og ikke falskt flagge uskyldige personer til politiet.

Anbefalt: