IOS 15.2 Nakenhetsdeteksjon vil være på enheten og velges

IOS 15.2 Nakenhetsdeteksjon vil være på enheten og velges
IOS 15.2 Nakenhetsdeteksjon vil være på enheten og velges
Anonim

Apple vil gå videre med sin nakenhet-deteksjons- og barnebeskyttelsesfunksjon i Messages-appen for iOS 15.2, men foreldrene må slå den på.

Da Apple først avslørte sine barnevernfunksjoner, ble de møtt med en ganske kritisk respons, noe som resulterte i en forsinkelse av den planlagte utrullingen. Det største personvernproblemet – Apple skanning av iCloud-bilder for materiale med seksuelt misbruk av barn (CSAM) – er fortsatt på vent, men ifølge Bloomberg er meldingsoppdateringen planlagt utgitt med iOS 15.2. Apple sier imidlertid at den ikke vil være på som standard, og at bildeanalyse vil skje på enheten, så den vil ikke ha tilgang til potensielt sensitivt materiale.

Image
Image

I følge Apple, når den er aktivert, vil funksjonen bruke maskinlæring på enheten for å oppdage om sendte eller mottatte bilder i meldinger inneholder eksplisitt materiale. Dette vil uskarpe potensielt eksplisitte innkommende bilder og advare barnet eller gi dem en advarsel hvis de sender noe som kan være eksplisitt.

I begge tilfeller vil barnet også ha muligheten til å kontakte en forelder og fortelle dem hva som skjer. I en liste over ofte stilte spørsmål oppgir Apple at for barnekontoer 12 og under vil barnet bli advart om at en forelder vil bli kontaktet hvis de ser/sender eksplisitt materiale. For barnekontoer mellom 13-17 år advares barnet om den potensielle risikoen, men foreldre vil ikke bli kontaktet.

Image
Image

I de samme vanlige spørsmålene insisterer Apple på at ingen av informasjonen vil bli delt med eksterne parter, inkludert Apple, politi eller NCMEC (National Center for Missing & Exploited Children).

Disse nye barnesikkerhets alternativene for meldinger skal være tilgjengelige i den kommende iOS 15.2-oppdateringen, som forventes å rulle en gang denne måneden, ifølge Macworld.

Anbefalt: