Key takeaways
- Forskere har utviklet en metode for å kryptere samtaler for å bekjempe useriøse mikrofoner fra å fange opp samtalene våre.
- Metoden er betydelig siden den fungerer i sanntid på streaming av lyd og med minimal trening.
- Eksperter applauderer forskningen, men tror den ikke er til stor nytte for den gjennomsnittlige smarttelefonbrukeren.
Vi er omgitt av smartenheter med mikrofoner, men hva om de har blitt kompromittert for å avlytte oss?
I et forsøk på å skjerme samtalene våre fra snoopere, har forskere fra Columbia University utviklet en Neural Voice Camouflage-metode som forstyrrer automatiske talegjenkjenningssystemer i sanntid uten å plage folk.
"Med invasjonen av [smarte stemmeaktiverte enheter] i livene våre, begynner ideen om personvern å forsvinne ettersom disse lytteenhetene alltid er på og overvåker hva som blir sagt," Charles Everette, direktør for Cyber Advocacy, Deep Instinct, fort alte Lifewire via e-post. "Denne forskningen er et direkte svar på behovet for å skjule eller kamuflere en persons stemme og samtaler fra disse elektroniske avlyttingerne, kjent eller ukjent i et område."
Talking Over
Forskerne har utviklet et system som genererer hviskestille lyder som du kan spille av i alle rom for å blokkere useriøse mikrofoner fra å spionere på samtalene dine.
Måten denne typen teknologi motvirker avlytting minner Everette om støyreduserende hodetelefoner. I stedet for å generere stille hviskelyder for å fjerne bakgrunnsstøyen, kringkaster forskerne bakgrunnslyder som forstyrrer algoritmene for kunstig intelligens (AI) som tolker lydbølger til forståelig lyd.
Slike mekanismer for å kamuflere en persons stemme er ikke unike, men det som skiller Neural Voice Camouflage fra de andre metodene er at den fungerer i sanntid på streaming av lyd.
"For å operere på direkte tale, må vår tilnærming forutsi [riktig krypteringslyd] inn i fremtiden, slik at de kan spilles av i sanntid," bemerker forskerne i papiret deres. Foreløpig fungerer metoden for størstedelen av det engelske språket.
Hans Hansen, administrerende direktør i Brand3D, sa til Lifewire at forskningen er svært viktig siden den angriper en stor svakhet i dagens AI-systemer.
I en e-postsamtale forklarte Hansen at nåværende dyplærings-AI-systemer generelt og naturlig talegjenkjenning spesielt fungerer etter å ha behandlet millioner av taledataposter samlet inn fra tusenvis av høyttalere. Derimot fungerer Neural Voice Camouflage etter å ha kondisjonert seg selv på bare to sekunder med inndata.
Personlig, hvis jeg er bekymret for enheter som lytter, ville ikke løsningen min vært å legge til en annen lytteenhet som prøver å generere bakgrunnsstøy.
Feil tre?
Brian Chappell, sjefssikkerhetsstrateg hos BeyondTrust, mener forskningen er mer fordelaktig for forretningsbrukere som frykter at de kan være midt i kompromitterte enheter som lytter etter nøkkelord som indikerer at verdifull informasjon blir sagt opp.
"Der denne teknologien potensielt ville være mer interessant er i en mer autoritær overvåkingsstat der AI-video og stemmeutskriftsanalyse brukes mot innbyggere," sa James Maude, BeyondTrusts ledende cybersikkerhetsforsker, til Lifewire via e-post.
Maude foreslo at et bedre alternativ ville være å implementere personvernkontroller for hvordan data fanges opp, lagres og brukes av disse enhetene. Chappell mener dessuten at nytten av forskerens metode er begrenset siden den ikke er laget for å stoppe menneskelig avlytting.
"For hjemmet, husk at bruk av et slikt verktøy i det minste i teorien vil føre til at Siri, Alexa, Google Home og ethvert annet system som er aktivert med et t alt triggerord ignorerer deg," sa Chappell.
Men eksperter tror at med den økende inkluderingen av AI/ML-spesifikk teknologi i smartenhetene våre, er det fullt mulig at denne teknologien kan ende opp i telefonene våre i nær fremtid.
Maude er bekymret siden AI-teknologier raskt kan lære å skille mellom støy og ekte lyd. Han tror at selv om systemet i utgangspunktet kan være vellykket, kan det raskt bli til et katt-og-mus-spill ettersom en lytteenhet lærer å filtrere ut jamming-lydene.
Mer bekymringsfullt påpekte Maude at alle som bruker det, faktisk kan trekke oppmerksomheten til seg selv, siden det å forstyrre stemmegjenkjenningen ville virke uvanlig og kan tyde på at du prøver å skjule noe.
"Personlig, hvis jeg er bekymret for enheter som lytter, ville ikke løsningen min vært å legge til en annen lytteenhet som prøver å generere bakgrunnsstøy," delte Maude. «Spesielt fordi det bare øker risikoen for at en enhet eller app blir hacket og kan lytte til meg.»