Key takeaways
- Ny forskning viser at folk ikke kan skille AI-genererte bilder fra ekte bilder.
- Deltakere vurderte AI-genererte bilder som mer pålitelige.
- Eksperter mener folk bør slutte å stole på alt de ser på internett.
Ordtaket «å se er å tro» er ikke lenger relevant når det gjelder internett, og eksperter sier at det ikke kommer til å bli bedre med det første.
En fersk studie fant at bilder av ansikter generert av kunstig intelligens (AI) ikke bare var svært fotorealistiske, men de virket også mer dydige enn ekte ansikter.
"Vår evaluering av fotorealismen til AI-syntetiserte ansikter indikerer at syntesemotorer har passert gjennom den uhyggelige dalen, og er i stand til å skape ansikter som ikke kan skilles fra hverandre og er mer pålitelige enn ekte ansikter," observerte forskerne.
Den personen eksisterer ikke
Forskerne, Dr. Sophie Nightingale fra Lancaster University og professor Hany Farid fra University of California, Berkeley, utførte eksperimentene etter å ha erkjent de godt publiserte truslene om dype forfalskninger, alt fra alle typer nettsvindel til oppkvikkende desinformasjonskampanjer.
"Kanskje mest skadelig er konsekvensen at i en digital verden der et hvilket som helst bilde eller video kan forfalskes, kan ektheten av et ubeleilig eller uønsket opptak settes i tvil," hevdet forskerne.
De hevdet at selv om det har vært fremskritt i utviklingen av automatiske teknikker for å oppdage dypt falskt innhold, er dagens teknikker ikke effektive og nøyaktige nok til å holde tritt med den konstante strømmen av nytt innhold som lastes opp på nettet. Dette betyr at det er opp til forbrukerne av nettinnhold å skille det ekte fra det falske, foreslår duoen.
Jelle Wieringa, en talsmann for sikkerhetsbevissthet ved KnowBe4, var enig. Han fort alte Lifewire over e-post at det er ekstremt vanskelig å bekjempe faktiske dype forfalskninger uten spesialisert teknologi. "[Begrensende teknologier] kan være kostbare og vanskelige å implementere i sanntidsprosesser, og oppdager ofte en deepfake først i ettertid."
Med denne antagelsen utførte forskerne en serie eksperimenter for å finne ut om menneskelige deltakere kan skille toppmoderne syntetiserte ansikter fra ekte ansikter. I testene deres fant de at til tross for opplæring for å gjenkjenne forfalskninger, ble nøyaktighetsgraden bare forbedret til 59 %, opp fra 48 % uten trening.
Dette førte til at forskerne testet om oppfatninger om pålitelighet kunne hjelpe folk med å identifisere kunstige bilder. I en tredje studie ba de deltakerne vurdere påliteligheten til ansiktene, bare for å oppdage at gjennomsnittlig vurdering for syntetiske ansikter var 7.7 % mer pålitelig enn gjennomsnittlig vurdering for ekte ansikter. Tallet høres kanskje ikke så mye ut, men forskerne hevder det er statistisk signifikant.
Deeper Fakes
Dype forfalskninger var allerede en stor bekymring, og nå har vannet blitt mer grumset av denne studien, som antyder at slike høykvalitets falske bilder kan legge til en helt ny dimensjon til nettsvindel, for eksempel ved å bidra til å skape flere overbevisende falske profiler på nettet.
"Den ene tingen som driver cybersikkerhet er tilliten folk har til teknologiene, prosessene og menneskene som prøver å holde dem trygge," delte Wieringa. "Dypte forfalskninger, spesielt når de blir fotorealistiske, undergraver denne tilliten og derfor aksepten og aksepten av cybersikkerhet. Det kan føre til at folk mistrives til alt de oppfatter."
Chris Hauk, personvernforkjemper for forbrukere hos Pixel Privacy, var enig. I en kort e-postutveksling fort alte han Lifewire at fotorealistisk dyp forfalskning kan forårsake "kaos" på nettet, spesielt i disse dager når alle slags kontoer kan nås ved hjelp av bilde-ID-teknologi.
Korrigerende tiltak
Heldigvis sier Greg Kuhn, direktør for IoT, Prosegur Security, at det finnes prosesser som kan unngå slik uredelig autentisering. Han fort alte Lifewire via e-post at AI-baserte legitimasjonssystemer matcher en verifisert person mot en liste, men mange har innebygde sikkerhetstiltak for å sjekke om "liveness."
"Disse typer systemer kan kreve og veilede en bruker til å utføre visse oppgaver som å smile eller snu hodet til venstre og deretter til høyre. Dette er ting som statisk genererte ansikter ikke kunne utføre," delte Kuhn.
Forskerne har foreslått retningslinjer for å regulere deres opprettelse og distribusjon for å beskytte publikum mot syntetiske bilder. For det første foreslår de å inkorporere dypt inngrodde vannmerker i selve bilde- og videosyntesenettverket for å sikre at alle syntetiske medier kan identifiseres pålitelig.
Inntil da sier Paul Bischoff, personvernadvokat og redaktør for infosec research hos Comparitech, at folk er på egenhånd."Folk må lære å ikke stole på ansikter på nettet, akkurat som vi alle (forhåpentligvis) har lært å ikke stole på visningsnavn i e-postene våre," sa Bischoff til Lifewire via e-post.