AI Crime Prediction Could Anklage de gale menneskene

Innholdsfortegnelse:

AI Crime Prediction Could Anklage de gale menneskene
AI Crime Prediction Could Anklage de gale menneskene
Anonim

Key takeaways

  • Et programvareselskap samler angivelig inn informasjon om sosiale medier for å lage profiler som kan brukes til å identifisere personer som utgjør sikkerhetsrisiko.
  • Voyager Labs har forseglet en betydelig avtale med et japansk myndighetsorgan.
  • Men eksperter advarer om at programvare for AI-prediksjon kan lures.
Image
Image

Din elektroniske informasjon kan brukes til å forutsi om du kan begå en forbrytelse.

Voyager Labs samler angivelig informasjon om sosiale medier for å lage profiler som kan brukes til å identifisere personer som utgjør sikkerhetsrisiko. Det er en del av en økende innsats å bruke kunstig intelligens (AI) for å etterforske potensielle kriminelle. Men noen eksperter sier at bevegelsen er full av potensielle problemer.

"Det er veldig vanskelig å forutsi menneskelig atferd," sa Matthew Carr, en sikkerhetsforsker ved Atumcell Group, til Lifewire i et e-postintervju. "Vi er ikke engang i stand til å forutsi vår egen oppførsel, enn si andres. Jeg tror det er mulig at AI kan bli brukt i fremtiden til dette formålet, men vi er langt unna å kunne gjøre det nå. «

Opprette profiler

Som The Guardian nylig rapporterte, undersøkte Los Angeles politiavdeling å bruke Voyager Labs programvare for kriminalitetsforutsigelse. Selskapet kunngjorde også at det hadde inngått en betydelig avtale med et japansk myndighetsorgan.

Den japanske avtalen gir myndighetene en AI-basert etterforskningsplattform som analyserer enorme mengder informasjon fra alle kilder, inkludert åpne og dype data.

"Jeg er glad for at vi samarbeider i kampen mot terror og kriminalitet," sa Divya Khangarot, administrerende direktør APAC ved Voyager Labs, i pressemeldingen. "Ved å bruke Voyager Labs banebrytende etterretningsløsninger får kundene våre unike evner til å proaktivt identifisere og forstyrre potensielle trusler. Vi bringer flere lag med dyp etterforskningsinnsikt ved å bruke en kombinasjon av AI, Machine Learning og OSINT for å avdekke skjulte spor, krenket informasjon, og dårlige skuespillere."

Ikke så smart?

Men i et e-postintervju sår Matt Heisie, medgründeren av Ferret.ai, som også bruker kunstig intelligens til å forutsi lovbrytere, tvil om noen av påstandene til Voyager Labs.

"Er det en like klar sammenheng mellom for eksempel en arrestasjonsjournal og fremtidig kriminell atferd, som det er en svart flekk på en test og utvikling av en svulst?" han sa. "Tenk på alle de potensielle forvirringene som gikk inn i den arrestasjonen - hvilket nabolag personen bodde i, mengden og kvaliteten, til og med skjevheter, til politiet i det området. Personens alder, kjønn, fysisk utseende, alle disse har kryssende innvirkning på sannsynligheten for at personen har en arrestasjonsjournal, helt atskilt fra deres faktiske tilbøyelighet til å begå forbrytelsen vi prøver å forutsi."

Tilt alte med bedre advokater er mer sannsynlig å være i stand til å undertrykke poster fra å bli offentlig tilgjengelig, sa Heisie. Noen jurisdiksjoner begrenser utgivelsen av mugshots eller arrestasjonsprotokoller for å beskytte siktede.

"Datamaskinen vil lære basert på dataene du gir den og innlemme alle skjevhetene som gikk inn i den datainnsamlingen…"

"Alt dette legger til ytterligere skjevhet til algoritmene," la han til. "Datamaskinen vil lære basert på dataene du gir den og inkludere alle skjevhetene som gikk inn i den datainnsamlingen i læringen og tolkningen."

Det har vært flere forsøk på å skape kriminalitet som forutsier AI, og med ofte skandaløse resultater, sa Heisie.

COMPAS, en algoritme som rettshåndhevelse bruker for å forutsi gjentatt lovbrudd, brukes ofte til å avgjøre straffutmåling og kausjon. Den har møtt skandale tilbake til 2016 for rasemessige skjevheter, og spådde svarte tilt alte utgjorde en høyere risiko for tilbakefall enn de faktisk gjorde, og omvendt for hvite tilt alte.

Over 1 000 teknologer og forskere, inkludert akademikere og AI-eksperter fra Harvard, MIT, Google og Microsoft, utt alte seg i 2020 mot et papir som hevdet at forskere hadde utviklet en algoritme som kunne forutsi kriminalitet utelukkende basert på en persons ansikt, og sa at publisering av slike studier forsterker allerede eksisterende rasemessig skjevhet i strafferettssystemet, bemerket Heisie.

Image
Image

Kina er det største og raskest voksende markedet for denne typen teknologi, først og fremst på grunn av utstrakt tilgang til private data, med mer enn 200 millioner overvåkingskameraer og avansert AI-forskning fokusert på dette problemet i mange år, sa Heisie. Systemer som CloudWalks Police Cloud brukes nå til å forutsi og spore kriminelle og finne rettshåndhevelse.

"Men det rapporteres om betydelige skjevheter der også," sa Heisie.

Heisie la til at selskapet hans nøye kuraterer dataene som kommer inn, og ikke bruker mugshots eller arrestasjonsdokumenter, "i stedet fokuserer på mer objektive kriterier."

"Vår AI lærte av de kuraterte dataene, men enda viktigere, den lærer også fra folk, som selv analyserer, kuraterer og evaluerer poster, og forteller oss om deres interaksjoner med andre," la han til. "Vi opprettholder også full åpenhet og fri og offentlig tilgang til applikasjonen vår (så raskt som vi kan la dem gå inn i betaversjon), og tar gjerne imot innsikt i våre prosesser og prosedyrer."

Anbefalt: