Alexas evne til å etterligne døde slektninger kan være den skumleste tingen noensinne

Innholdsfortegnelse:

Alexas evne til å etterligne døde slektninger kan være den skumleste tingen noensinne
Alexas evne til å etterligne døde slektninger kan være den skumleste tingen noensinne
Anonim

Key takeaways

  • Amazons Alexa-stemmeassistent kan kopiere en stemme med så lite som ett minutts lyd.
  • Du kan be Alexa lese en historie med stemmen til en død forelder.
  • Det er den samme ideen som dype forfalskninger, bare brukt for det godes krefter.
Image
Image

Amazon Alexas siste gimmick er å lære å etterligne stemmen til en avdød kjær, slik at de kan snakke til deg fra den andre siden av graven.

Alexa trenger bare et minutt med t alt lyd for å etterligne en stemme på en overbevisende måte. Amazon regner det som en trøstende funksjon som kan sette deg i kontakt med kjære, men det kan også være en ganske skummel opplevelse. Og det viser hvor enkelt det er å lage dyp falsk lyd som er god nok til å lure oss, selv når stemmen er en vi kjenner veldig godt.

"Amazon har definitivt gått inn i et ganske unikt og bisarrt territorium med sin kunngjøring om at Alexa snart vil kunne lære og deretter bruke stemmen til døde slektninger snart," sa Bill Mann, personvernekspert ved Restore Privacy, til Lifewire via e-post. "For noen mennesker er det ikke skummelt i det hele tatt. Faktisk kan det være ganske rørende."

Ghost in the Machine

Som en del av sin årlige re:MARS-konferanse viser Amazon frem funksjonen i en kort video. I den spør et barn Alexa om bestemor kan fortsette å lese ham «The Wizard of Oz», hvert barns favoritt-keynotevennlige public domain-verk. Og det er et ganske rørende øyeblikk. Det er vanskelig å ikke kjenne på menneskelige følelser når bestemor begynner å lese.

"Mennesker sliter med dødelighet, spesielt i vestlig kultur. I århundrer har vi prøvd å finne måter å minnes de døde på, fra dødsmasker, til hårlokker, til gamle bilder, til å se gamle filmer," Andrew Selepak, en professor i sosiale medier ved University of Florida, fort alte Lifewire via e-post. "Deepfakes bruker den nyeste teknologien til å lage en ny dødsmaske til en avdød kjære. Men, avhengig av ens perspektiv, er det skummelt eller en måte å minnes og holde på noen du elsker etter at de har dødd?"

Men et memento mori kan være både trøstende og skummelt. Et familiemedlems venn er død, men du kan fortsatt høre dem snakke. Det hjelper ikke at Alexa har en historie med merkelig, og noen ganger skremmende, oppførsel. I 2018, da NYTs meningssp altist Farhad Manjoo gikk i seng, begynte hans Amazon Echo "å jamre, som et barn som skriker i en skrekkfilmdrøm."

Snart etter erkjente Amazon at Alexa noen ganger lo høyt, som sammen med tenåringer og kjellere er skrekkfilm 101.

Man kan bare lure på hvordan du ville føle deg hvis Alexa tok de samme triksene med bestemors stemme.

Deep Fake

Den tilsynelatende lettheten som Alexa lærer å etterligne en stemme med fører oss til mer ondsinnet bruk av stemmekloning: dype forfalskninger.

Image
Image

"Deepfake lyd er ikke nytt, selv om det er lite forstått og lite kjent. Teknologien har vært tilgjengelig i årevis for å gjenskape en persons stemme med kunstig intelligens og dyp læring ved å bruke relativt lite faktisk lyd fra personen," sier Selepak. "Slik teknologi kan også være farlig og ødeleggende. En forstyrret person kan gjenskape stemmen til en død eks-kjæreste og bruke den nye lyden til å si hatefulle og sårende ting."

Det er bare i sammenheng med Alexa. Dyp falsk lyd kan gå langt utover det, og overbevise folk om at fremtredende politikere tror på ting de ikke gjør, for eksempel. Men på den annen side, jo mer vi blir vant til disse dype forfalskningene – kanskje i form av disse Alexa-stemmene – desto mer vil vi være skeptiske til de mer grusomme forfalskningene. Så igjen, gitt hvor enkelt det er å spre løgner på Facebook, kanskje ikke.

Amazon har ikke sagt om denne funksjonen kommer til Alexa eller om den bare er en teknologidemo. Jeg håper på en måte det gjør det. Teknologien er på sitt beste når den brukes på en humanistisk måte som dette, og selv om den enkle reaksjonen er å kalle det skummelt, som Selepak sier, er det egentlig ikke så mye forskjellig fra å se gamle videoer eller lytte til lagrede talemeldinger, som en karakter i et TV-program med lat manus.

Og hvis teknologien for dype forfalskninger er lett tilgjengelig, hvorfor ikke bruke den til å trøste oss selv?

Anbefalt: