Hvordan AI kunne overvåke dets farlige avkom

Innholdsfortegnelse:

Hvordan AI kunne overvåke dets farlige avkom
Hvordan AI kunne overvåke dets farlige avkom
Anonim

Key takeaways

  • En ny artikkel hevder at kunstig intelligens kan avgjøre hvilke forskningsprosjekter som kan trenge mer regulering enn andre.
  • Det er en del av en økende innsats for å oppdage hva slags kunstig intelligens som kan være farlig.
  • En ekspert sier at den virkelige faren ved AI er at den kan gjøre mennesker dumme.

Image
Image

Kunstig intelligens (AI) gir mange fordeler, men også noen potensielle farer. Og nå har forskere foreslått en metode for å holde øye med deres datastyrte kreasjoner.

Et internasjon alt team sier i en ny artikkel at AI kan avgjøre hvilke typer forskningsprosjekter som kan trenge mer regulering enn andre. Forskerne brukte en modell som blander begreper fra biologi og matematikk og er en del av en økende innsats for å oppdage hva slags kunstig intelligens som kan være farlig.

"Selvfølgelig, mens den "sci-fi" farlige bruken av AI kan oppstå hvis vi bestemmer det […], det som gjør AI farlig er ikke AI i seg selv, men [hvordan vi bruker det], " Thierry Rayna, leder for Technology for Change, ved École Polytechnique i Frankrike, fort alte Lifewire i et e-postintervju. «Implementering av AI kan enten være kompetansehevende (for eksempel forsterker det relevansen av menneskets/arbeidernes ferdigheter og kunnskap) eller kompetanseødeleggende, dvs. AI gjør eksisterende ferdigheter og kunnskap mindre nyttig eller foreldet.»

Keeping Tabs

Forfatterne av det nylige papiret skrev i et innlegg at de bygde en modell for å simulere hypotetiske AI-konkurranser. De kjørte simuleringen hundrevis av ganger for å prøve å forutsi hvordan AI-løp i den virkelige verden kan fungere.

"Variabelen vi fant som spesielt viktig var "lengden" på løpet - tiden våre simulerte løp tok å nå målet sitt (et funksjonelt AI-produkt), skrev forskerne. «Når AI-løp nådde målet raskt, fant vi ut at konkurrenter som vi hadde kodet for å alltid overse sikkerhetstiltak, alltid vant.»

Derimot fant forskerne at langsiktige AI-prosjekter ikke var like farlige fordi vinnerne ikke alltid var de som overså sikkerheten. "Gitt disse funnene, vil det være viktig for regulatorer å fastslå hvor lenge forskjellige AI-løp sannsynligvis vil vare, ved å bruke forskjellige regler basert på deres forventede tidsskalaer," skrev de. "Våre funn tyder på at én regel for alle AI-løp - fra sprint til maraton - vil føre til noen utfall som er langt fra ideelle."

David Zhao, administrerende direktør for Coda Strategy, et selskap som konsulterer om AI, sa i et e-postintervju med Lifewire at det kan være vanskelig å identifisere farlig AI. Utfordringene ligger i det faktum at moderne tilnærminger til AI har en dyp læringstilnærming.

"Vi vet at dyp læring gir bedre resultater i en rekke brukstilfeller, for eksempel bildegjenkjenning eller talegjenkjenning," sa Zhao. "Men det er umulig for mennesker å forstå hvordan en dyplæringsalgoritme fungerer og hvordan den produserer resultatet. Derfor er det vanskelig å si om en AI som produserer gode resultater er farlig fordi det er umulig for mennesker å forstå hva som skjer. «

Programvare kan være "farlig" når den brukes i kritiske systemer, som har sårbarheter som kan utnyttes av dårlige aktører eller produsere feil resultater, sa Matt Shea, strategidirektør i AI-firmaet MixMode, via e-post. Han la til at usikker kunstig intelligens også kan føre til feil klassifisering av resultater, tap av data, økonomisk påvirkning eller fysisk skade.

"Med tradisjonell programvare koder utviklere algoritmer som kan undersøkes av en person for å finne ut hvordan de kan plugge en sårbarhet eller fikse en feil ved å se på kildekoden," sa Shea."Med AI er imidlertid en stor del av logikken skapt fra selve data, kodet inn i datastrukturer som nevrale nettverk og lignende. Dette resulterer i systemer som er "svarte bokser" som ikke kan undersøkes for å finne og fikse sårbarheter som vanlig programvare."

Dangers Ahead?

Mens AI har blitt avbildet i filmer som The Terminator som en ond kraft som har til hensikt å ødelegge menneskeheten, kan de virkelige farene være mer prosaiske, sier eksperter. Rayna, for eksempel, antyder at AI kan gjøre oss dummere.

"Det kan frata mennesker å trene hjernen og utvikle ekspertise," sa han. «Hvordan kan du bli en ekspert på risikokapital hvis du ikke bruker mesteparten av tiden din på å lese oppstartsapplikasjoner? Verre, AI er notorisk "black box" og lite forklarlig. Å ikke vite hvorfor en bestemt AI-beslutning ble tatt betyr at det vil være veldig lite å lære av den, akkurat som du ikke kan bli en ekspertløper ved å kjøre rundt på stadion på en Segway.«

Det er vanskelig å si om en AI som gir gode resultater er farlig, fordi det er umulig for mennesker å forstå hva som skjer.

Den kanskje mest umiddelbare trusselen fra AI er muligheten for at det kan gi partiske resultater, sa Lyle Solomon, en advokat som skriver om de juridiske implikasjonene av AI, i et e-postintervju.

"AI kan hjelpe til med å utdype sosiale skiller. AI er i hovedsak bygget fra data samlet inn fra mennesker," la Solomon til. "[Men] til tross for de enorme dataene, inneholder den minimale undergrupper og vil ikke inkludere hva alle tror. Dermed vil data samlet inn fra kommentarer, offentlige meldinger, anmeldelser, etc., med iboende skjevheter få AI til å forsterke diskriminering og hat."

Anbefalt: