Hvorfor ny profileringsprogramvare vekker personvernbekymringer

Innholdsfortegnelse:

Hvorfor ny profileringsprogramvare vekker personvernbekymringer
Hvorfor ny profileringsprogramvare vekker personvernbekymringer
Anonim

Key takeaways

  • Programvare som bruker kunstig intelligens for å profilere folk, vekker bekymringer om personvern.
  • Cryfe kombinerer atferdsanalyseteknikker med kunstig intelligens.
  • Det kinesiske selskapet Alibaba møtte nylig kritikk etter å ha sagt at programvaren deres kunne oppdage uigurer og andre etniske minoriteter.
Image
Image

Ny programvare drevet av kunstig intelligens som er beregnet på at arbeidsgivere skal profilere sine ansatte, vekker bekymringer om personvern.

En ny programvareplattform, k alt Cryfe, kombinerer atferdsanalyseteknikker med kunstig intelligens. Utvikleren hevder at ved å analysere små ledetråder, kan programvaren avsløre folks intensjoner under intervjuer. Men noen observatører sier at Cryfe og andre typer programvare som analyserer atferd kan invadere personvernet.

"Bedrifter stoler i økende grad på AI for profilering," sa AI-ekspert Vaclav Vincale i et e-postintervju. "Men selv menneskene som koder disse algoritmene, langt mindre en kundestøtteperson du når på telefonen, kunne ikke fortelle deg hvorfor de kommer med en gitt anbefaling."

More Than Words

Cryfe ble utviklet av et sveitsisk selskap hvis ansatte ble opplært av FBI i profileringsteknikker. "Cryfe, i all mellommenneskelig kommunikasjon, lytter ikke bare til ord, men identifiserer andre signaler som sendes ut av mennesket som følelser, mikrouttrykk og alle gester," sa Caroline Matteucci, grunnleggeren av Cryfe, i et e-postintervju.

"Under rekruttering, for eksempel, lar dette oss gå og lete etter den virkelige personligheten til samtalepartneren vår."

Matteucci sa at brukernes personvern er beskyttet fordi selskapet er åpent om hvordan programvaren fungerer. "Brukeren, før han kan bruke plattformen, må godta de generelle betingelsene," sa hun.

"Der er det spesifisert at brukeren ikke i noe tilfelle kan sende inn et intervju til analyse uten å ha mottatt skriftlig samtykke fra samtalepartneren."

Cryfe er ikke den eneste AI-drevne programvaren som utgir seg for å analysere menneskelig atferd. Det er også Humantic, som hevder å analysere forbrukeratferd. "Humantics banebrytende teknologi forutsier alles atferd uten at de noen gang trenger å ta en personlighetstest," ifølge selskapets nettside.

Image
Image

Selskapet hevder å bruke AI for å lage søkernes psykologiske profiler basert på ordene de bruker i CV-er, følgebrev, LinkedIn-profiler og alle andre tekster de sender inn.

Atferdsprogramvare har møtt juridiske utfordringer tidligere. I 2019 rapporterte Bloomberg Law at Equal Employment Opportunity Commission (EEOC) undersøkte tilfeller av påstått ulovlig diskriminering på grunn av algoritmeassisterte, HR-relaterte avgjørelser.

"Dette må løses fordi fremtiden for rekruttering er AI," sa advokat Bradford Newman til Bloomberg.

Noen observatører tar problemer med selskaper som bruker programvare for atferdssporing fordi den ikke er nøyaktig nok. I et intervju fort alte Nigel Duffy, global leder for kunstig intelligens i profesjonelle tjenester-firmaet EY, til InformationWeek at han er plaget av programvare som bruker spørrekonkurranser i sosiale medier og påvirkningsdeteksjon.

"Jeg tror det er noe virkelig overbevisende litteratur om potensialet for avfektdeteksjon, men jeg forstår at måten som ofte implementeres på er ganske naiv," sa han.

"Folk trekker slutninger som vitenskapen egentlig ikke støtter [som] å bestemme at noen er en potensielt god ansatt fordi de smiler mye eller bestemmer seg for at noen liker produktene dine fordi de smiler mye."

Kinesiske selskaper skal ha profilert minoriteter

Atferdssporing kan også ha mer skumle formål, sier noen menneskerettighetsgrupper. I Kina vakte nettmarkedsgiganten Alibaba nylig oppsikt etter at den angivelig hevdet at programvaren deres kunne oppdage uigurer og andre etniske minoriteter.

The New York Times rapporterte at selskapets cloud computing-virksomhet hadde programvare som kunne skanne bilder og videoer.

Men selv menneskene som koder disse algoritmene…kunne ikke fortelle deg hvorfor de kommer med en gitt anbefaling.

The Washington Post rapporterte også nylig at Huawei, et annet kinesisk teknologiselskap, hadde testet programvare som kunne varsle politi når overvåkingskameraene oppdaget uiguriske ansikter.

En patentsøknad fra Huawei for 2018 hevdet angivelig at «identifikasjon av fotgjengerattributter er veldig viktig» i ansiktsgjenkjenningsteknologi."Attributtene til målobjektet kan være kjønn (mann, kvinne), alder (som tenåringer, middelaldrende, gamle) [eller] rase (Han, Uyghur), " heter det i applikasjonen.

En talsperson for Huawei sa til CNN Business at etnisitetsidentifikasjonsfunksjonen "aldri skulle ha blitt en del av applikasjonen."

Den voksende bruken av kunstig intelligens for å sortere gjennom enorme mengder data vil garantert øke personvernbekymringer. Du vet kanskje aldri hvem eller hva som analyserer deg neste gang du skal på jobbintervju.

Anbefalt: