AI kunne slutte å snoke ved å forutsi hva du vil si

Innholdsfortegnelse:

AI kunne slutte å snoke ved å forutsi hva du vil si
AI kunne slutte å snoke ved å forutsi hva du vil si
Anonim

Key takeaways

  • Forskere har utviklet en metode for å kryptere samtaler for å bekjempe useriøse mikrofoner fra å fange opp samtalene våre.
  • Metoden er betydelig siden den fungerer i sanntid på streaming av lyd og med minimal trening.
  • Eksperter applauderer forskningen, men tror den ikke er til stor nytte for den gjennomsnittlige smarttelefonbrukeren.
Image
Image

Vi er omgitt av smartenheter med mikrofoner, men hva om de har blitt kompromittert for å avlytte oss?

I et forsøk på å skjerme samtalene våre fra snoopere, har forskere fra Columbia University utviklet en Neural Voice Camouflage-metode som forstyrrer automatiske talegjenkjenningssystemer i sanntid uten å plage folk.

"Med invasjonen av [smarte stemmeaktiverte enheter] i livene våre, begynner ideen om personvern å forsvinne ettersom disse lytteenhetene alltid er på og overvåker hva som blir sagt," Charles Everette, direktør for Cyber Advocacy, Deep Instinct, fort alte Lifewire via e-post. "Denne forskningen er et direkte svar på behovet for å skjule eller kamuflere en persons stemme og samtaler fra disse elektroniske avlyttingerne, kjent eller ukjent i et område."

Talking Over

Forskerne har utviklet et system som genererer hviskestille lyder som du kan spille av i alle rom for å blokkere useriøse mikrofoner fra å spionere på samtalene dine.

Måten denne typen teknologi motvirker avlytting minner Everette om støyreduserende hodetelefoner. I stedet for å generere stille hviskelyder for å fjerne bakgrunnsstøyen, kringkaster forskerne bakgrunnslyder som forstyrrer algoritmene for kunstig intelligens (AI) som tolker lydbølger til forståelig lyd.

Slike mekanismer for å kamuflere en persons stemme er ikke unike, men det som skiller Neural Voice Camouflage fra de andre metodene er at den fungerer i sanntid på streaming av lyd.

"For å operere på direkte tale, må vår tilnærming forutsi [riktig krypteringslyd] inn i fremtiden, slik at de kan spilles av i sanntid," bemerker forskerne i papiret deres. Foreløpig fungerer metoden for størstedelen av det engelske språket.

Hans Hansen, administrerende direktør i Brand3D, sa til Lifewire at forskningen er svært viktig siden den angriper en stor svakhet i dagens AI-systemer.

I en e-postsamtale forklarte Hansen at nåværende dyplærings-AI-systemer generelt og naturlig talegjenkjenning spesielt fungerer etter å ha behandlet millioner av taledataposter samlet inn fra tusenvis av høyttalere. Derimot fungerer Neural Voice Camouflage etter å ha kondisjonert seg selv på bare to sekunder med inndata.

Personlig, hvis jeg er bekymret for enheter som lytter, ville ikke løsningen min vært å legge til en annen lytteenhet som prøver å generere bakgrunnsstøy.

Feil tre?

Brian Chappell, sjefssikkerhetsstrateg hos BeyondTrust, mener forskningen er mer fordelaktig for forretningsbrukere som frykter at de kan være midt i kompromitterte enheter som lytter etter nøkkelord som indikerer at verdifull informasjon blir sagt opp.

"Der denne teknologien potensielt ville være mer interessant er i en mer autoritær overvåkingsstat der AI-video og stemmeutskriftsanalyse brukes mot innbyggere," sa James Maude, BeyondTrusts ledende cybersikkerhetsforsker, til Lifewire via e-post.

Maude foreslo at et bedre alternativ ville være å implementere personvernkontroller for hvordan data fanges opp, lagres og brukes av disse enhetene. Chappell mener dessuten at nytten av forskerens metode er begrenset siden den ikke er laget for å stoppe menneskelig avlytting.

"For hjemmet, husk at bruk av et slikt verktøy i det minste i teorien vil føre til at Siri, Alexa, Google Home og ethvert annet system som er aktivert med et t alt triggerord ignorerer deg," sa Chappell.

Image
Image

Men eksperter tror at med den økende inkluderingen av AI/ML-spesifikk teknologi i smartenhetene våre, er det fullt mulig at denne teknologien kan ende opp i telefonene våre i nær fremtid.

Maude er bekymret siden AI-teknologier raskt kan lære å skille mellom støy og ekte lyd. Han tror at selv om systemet i utgangspunktet kan være vellykket, kan det raskt bli til et katt-og-mus-spill ettersom en lytteenhet lærer å filtrere ut jamming-lydene.

Mer bekymringsfullt påpekte Maude at alle som bruker det, faktisk kan trekke oppmerksomheten til seg selv, siden det å forstyrre stemmegjenkjenningen ville virke uvanlig og kan tyde på at du prøver å skjule noe.

"Personlig, hvis jeg er bekymret for enheter som lytter, ville ikke løsningen min vært å legge til en annen lytteenhet som prøver å generere bakgrunnsstøy," delte Maude. «Spesielt fordi det bare øker risikoen for at en enhet eller app blir hacket og kan lytte til meg.»

Anbefalt: