Hvorfor vi trenger AI som forklarer seg selv

Innholdsfortegnelse:

Hvorfor vi trenger AI som forklarer seg selv
Hvorfor vi trenger AI som forklarer seg selv
Anonim

Key takeaways

  • Bedrifter bruker i økende grad AI som forklarer hvordan det gir resultater.
  • LinkedIn økte nylig abonnementsinntektene sine etter å ha brukt AI som spådde klienter i fare for å kansellere og beskrev hvordan de kom til konklusjonene.
  • Federal Trade Commission har sagt at kunstig intelligens som ikke kan forklares kan undersøkes.
Image
Image

En av de hotteste nye trendene innen programvare kan være kunstig intelligens (AI) som forklarer hvordan den oppnår resultatene sine.

Forklarlig AI gir resultater ettersom programvareselskaper prøver å gjøre AI mer forståelig. LinkedIn økte nylig abonnementsinntektene sine etter å ha brukt kunstig intelligens som spådde kunder i fare for å kansellere, og beskrev hvordan de kom frem til konklusjonene.

"Explainable AI handler om å kunne stole på utdataene og forstå hvordan maskinen kom dit," sa Travis Nixon, administrerende direktør i SynerAI og Chief Data Science, Financial Services i Microsoft, til Lifewire i et e-postintervju.

""Hvordan?" er et spørsmål som stilles til mange AI-systemer, spesielt når beslutninger tas eller utdata produseres som ikke er ideelle," la Nixon til. "Fra å behandle forskjellige raser urettferdig til å ta en skallet hode for en fotball, må vi vite hvorfor AI-systemer produserer resultatene deres. Når vi forstår "hvordan", posisjonerer det bedrifter og enkeltpersoner til å svare "hva neste?"

Bli kjent med AI

AI har vist seg nøyaktig og gir mange typer spådommer. Men AI er ofte i stand til å forklare hvordan den kom til sine konklusjoner.

Og regulatorer legger merke til problemet med AI-forklaring. Federal Trade Commission har sagt at AI som ikke kan forklares kan undersøkes. EU vurderer å vedta loven om kunstig intelligens, som inkluderer krav om at brukere skal kunne tolke AI-spådommer.

Linkedin er blant selskapene som tror forklarlig AI kan bidra til å øke fortjenesten. Før stolte LinkedIn-selgere på kunnskapen deres og brukte enorme mengder tid på å sile gjennom offline data for å identifisere hvilke kontoer som sannsynligvis ville fortsette å gjøre forretninger og hvilke produkter de kunne være interessert i under neste kontraktsfornyelse. For å løse problemet startet LinkedIn et program k alt CrystalCandle som oppdager trender og hjelper selgere.

I et annet eksempel sa Nixon at under etableringen av en kvoteinnstillingsmodell for et selskaps salgsstyrke, var selskapet hans i stand til å innlemme forklarlig AI for å identifisere hvilke egenskaper som pekte på en vellykket nyansettelse.

"Med dette resultatet var dette selskapets ledelse i stand til å gjenkjenne hvilke selgere de skulle sette på "hurtigveien" og hvilke som trengte coaching, alt før det oppsto store problemer, la han til.

Mange bruksområder for forklarlig AI

Explainable AI brukes for tiden som en tarmsjekk for de fleste dataforskere, sa Nixon. Forskerne kjører modellen sin gjennom enkle metoder, sørger for at ingenting er helt ute av drift, og sender deretter modellen.

"Dette er delvis fordi mange datavitenskapelige organisasjoner har optimalisert systemene sine rundt 'tid over verdi' som en KPI, noe som fører til forhastede prosesser og ufullstendige modeller," la Nixon til.

Jeg er bekymret for tilbakeslaget fra uansvarlige modeller kan sette AI-industrien tilbake på en seriøs måte.

Folk blir ofte ikke overbevist av resultater som AI ikke kan forklare. Raj Gupta, Chief Engineering Officer hos Cogito, sa i en e-post at selskapet hans har undersøkt kunder og funnet ut at nesten halvparten av forbrukerne (43%) ville ha en mer positiv oppfatning av et selskap og AI hvis selskaper var mer eksplisitte om bruken deres av teknologien.

Og det er ikke bare økonomiske data som får en hjelpende hånd fra forklarbar AI. Et område som drar nytte av den nye tilnærmingen er bildedata, der det er lett å indikere hvilke deler av et bilde algoritmen mener er essensielle og hvor det er lett for et menneske å vite om denne informasjonen gir mening, Samantha Kleinberg, førsteamanuensis ved Stevens Institute of Technology og en ekspert på forklarbar kunstig intelligens, fort alte Lifewire via e-post.

"Det er mye vanskeligere å gjøre det med en EKG eller kontinuerlig glukosemonitordata," la Kleinberg til.

Nixon spådde at forklarbar AI ville være grunnlaget for hvert AI-system i fremtiden. Og uten forklarlig AI, kan resultatene bli forferdelige, sa han.

"Jeg håper vi går langt nok på denne fronten til å ta forklarbar AI for gitt i årene som kommer, og at vi ser tilbake på den tiden i dag overrasket over at noen ville være gale nok til å distribuere modeller som de ikke forsto, " han la til."Hvis vi ikke møter fremtiden på denne måten, er jeg bekymret for at tilbakeslaget fra uansvarlige modeller kan sette AI-industrien tilbake på en seriøs måte."

Anbefalt: