Key takeaways
- Når deepfakes blir enklere å lage, har nye og forbedrede måter å oppdage dem på blitt en prioritet.
- Facebooks deepfake-spotting-teknologi bruker omvendt maskinlæring for å avdekke om en video er en deepfake eller ikke.
- Eksperter sier at bruk av blokkjedeteknologi vil være den beste måten å se om en video er ekte eller ikke, siden metoden er avhengig av kontekstuelle data.
Facebook er trygg på sin maskinlæringsmodell for å bekjempe dypforfalskninger, men eksperter sier at maskinlæring i seg selv ikke vil redde oss fra å bli lurt av dypforfalskninger.
Bedrifter som Facebook, Microsoft og Google jobber alle for å bekjempe dype falske falske handlinger fra å spre seg over nettet og sosiale nettverk. Selv om metodene er forskjellige, er det én potensiell idiotsikker metode for å oppdage disse falske videoene: blokkjeder.
“[Blockchains] bare gir deg massevis av potensial til å validere deepfake på en måte som er den beste formen for validering jeg kan se,” Stephen Wolfram, grunnlegger og administrerende direktør i Wolfram Research og forfatter av A New Kind of Science, fort alte Lifewire over telefon.
Facebooks Deepfake-spotting-teknologi
Deepfake-teknologi har vokst raskt de siste årene. De villedende videoene bruker maskinlæringsmetoder for å gjøre ting som å legge noens ansikt på en annen persons kropp, endre bakgrunnsforhold, falsk leppesynkronisering og mer. De spenner fra harmløse parodier til å få kjendiser eller offentlige personer til å si eller gjøre noe de ikke gjorde.
Eksperter sier at teknologien går raskt fremover, og at deepfakes bare vil bli mer overbevisende (og enklere å lage) etter hvert som teknologien blir mer allment tilgjengelig og mer innovativ.
Facebook ga nylig mer innsikt i sin deepfake-deteksjonsteknologi i samarbeid med Michigan State University. Det sosiale nettverket sier at det er avhengig av omvendt utvikling fra et enkelt kunstig intelligens-generert bilde til den generative modellen som brukes til å produsere det.
Forskere som jobbet med Facebook sa at metoden er avhengig av å avdekke de unike mønstrene bak AI-modellen som brukes til å generere en deepfake.
“Ved å generalisere bildeattribusjon til åpen-sett-gjenkjenning, kan vi utlede mer informasjon om den generative modellen som brukes til å lage en deepfake som går utover å erkjenne at den ikke har blitt sett før. Og ved å spore likheter mellom mønstrene til en samling dypfalske, kan vi også finne ut om en serie bilder stammer fra én enkelt kilde, skrev forskerne Xi Yin og Tan Hassner i Facebooks blogginnlegg om metoden for dypfalsk-spotting.
Wolfram sier at det er fornuftig at du vil bruke maskinlæring for å oppdage en avansert AI-modell (en deepfake). Det er imidlertid alltid rom for å lure teknologien.
“Jeg er slett ikke overrasket over at det finnes en anstendig maskinlæringsmåte å [oppdage dype falske]” sa Wolfram. «Spørsmålet er bare om du anstrenger deg nok, kan du lure det? Jeg er sikker på at du kan.»
Bekjempe deepfakes på en annen måte
I stedet sa Wolfram at han tror bruk av blokkjede vil være det beste alternativet for nøyaktig å finne visse typer dype forfalskninger. Hans mening om bruk av blokkjede fremfor maskinlæring går tilbake til 2019, og han sa at blokkjedetilnærmingen til syvende og sist kan gi en mer nøyaktig løsning på vårt dypfalske problem.
"Jeg forventer at bilde- og videoseere rutinemessig kunne sjekke mot blokkjeder (og 'datatrianguleringsberegninger') litt som hvordan nettlesere nå sjekker sikkerhetssertifikater," skrev Wolfram i en artikkel publisert i Scientific American.
Siden blokkjeder lagrer data i blokker som deretter lenkes sammen i kronologisk rekkefølge, og siden desentraliserte blokkjeder er uforanderlige, er dataene som legges inn irreversible.
Spørsmålet er bare om du anstrenger deg nok, kan du lure det? Jeg er sikker på at du kan.
Wolfram forklarte at ved å legge en video inn i en blokkjede, vil du kunne se tidspunktet den ble tatt, plasseringen og annen kontekstuell informasjon som ville tillate deg å fortelle om den har blitt endret på noen måte.
"Generelt, jo mer metadata det er som kontekstualiserer bildet eller videoen, jo mer sannsynlig er det at du kan fortelle," sa han. «Du kan ikke forfalske tid på en blokkjede.»
Men Wolfram sa at metoden som brukes - enten det er maskinlæring eller bruk av blokkjede - avhenger av typen deepfake du prøver å beskytte deg mot (dvs. en video av Kim Kardashian som sier noe dumt eller en video av en politiker kommer med en uttalelse eller et forslag).
"Blokkjedetilnærmingen beskytter mot visse typer dype forfalskninger, akkurat som bildebehandlingen for maskinlæring beskytter mot visse typer dype forfalskninger," sa han.
Konklusjonen, ser det ut til, er årvåkenhet for oss alle når det gjelder å bekjempe den kommende dype falske syndfloden.