AI kan ta igjen menneskelig fornuft

Innholdsfortegnelse:

AI kan ta igjen menneskelig fornuft
AI kan ta igjen menneskelig fornuft
Anonim

Key takeaways

  • Forskere har laget teknikker som lar brukere rangere resultatene av en maskinlæringsmodells oppførsel.
  • Eksperter sier at metoden viser at maskiner tar igjen menneskers tenkeevner.
  • Fremskritt innen AI kan fremskynde utviklingen av datamaskiners evne til å forstå språk og revolusjonere måten AI og mennesker samhandler på.
Image
Image

En ny teknikk som måler resonnementkraften til kunstig intelligens (AI) viser at maskiner tar igjen mennesker i deres evner til å tenke, sier eksperter.

Forskere ved MIT og IBM Research har laget en metode som gjør det mulig for en bruker å rangere resultatene av en maskinlæringsmodells oppførsel. Teknikken deres, k alt Shared Interest, inkluderer beregninger som sammenligner hvor godt en modells tenkning samsvarer med folks.

"I dag er AI i stand til å nå (og i noen tilfeller overgå) menneskelig ytelse i spesifikke oppgaver, inkludert bildegjenkjenning og språkforståelse," Pieter Buteneers, direktør for ingeniørfag i maskinlæring og AI ved kommunikasjon selskapet Sinch, fort alte Lifewire i et e-postintervju. "Med naturlig språkbehandling (NLP) kan AI-systemer tolke, skrive og snakke språk så vel som mennesker, og AI kan til og med justere dialekten og tonen for å tilpasse seg sine menneskelige jevnaldrende."

Artificial Smarts

AI produserer ofte resultater uten å forklare hvorfor disse avgjørelsene er riktige. Og verktøy som hjelper eksperter med å forstå en modells resonnement gir ofte bare innsikt, bare ett eksempel om gangen. AI trenes vanligvis ved å bruke millioner av datainndata, noe som gjør det vanskelig for et menneske å vurdere nok beslutninger til å identifisere mønstre.

I en fersk artikkel sa forskerne at Shared Interest kan hjelpe en bruker med å avdekke trender i en modells beslutningstaking. Og denne innsikten kan tillate brukeren å avgjøre om en modell er klar til å bli distribuert.

“I utviklingen av Shared Interest er målet vårt å være i stand til å skalere opp denne analyseprosessen slik at du kan forstå på et mer glob alt nivå hva modellens oppførsel er,” Angie Boggust, en medforfatter av papiret, sa i pressemeldingen.

Shared Interest bruker en teknikk som viser hvordan en maskinlæringsmodell tok en bestemt beslutning, kjent som fremtredende metoder. Hvis modellen klassifiserer bilder, fremhever fremtredende metoder områder av et bilde som er viktige for modellen når den tar sin avgjørelse. Delt interesse fungerer ved å sammenligne fremtredende metoder med menneskeskapte merknader.

Forskere brukte Shared Interest for å hjelpe en hudlege med å finne ut om han burde stole på en maskinlæringsmodell utviklet for å hjelpe med å diagnostisere kreft fra bilder av hudlesjoner. Delt interesse gjorde det mulig for hudlegen å raskt se eksempler på modellens korrekte og feilaktige spådommer. Hudlegen bestemte at han ikke kunne stole på modellen fordi den ga for mange spådommer basert på bildeartefakter i stedet for faktiske lesjoner.

“Verdien her er at ved å bruke delt interesse, kan vi se disse mønstrene dukke opp i modellens oppførsel. På omtrent en halvtime kunne hudlegen bestemme om han skulle stole på modellen eller ikke, og om den skulle distribueres eller ikke, sa Boggust.

Begrunnelsen bak en modells beslutning er viktig for både maskinlæringsforskere og beslutningstakeren.

Measuring Progress

Arbeidet til MIT-forskere kan være et betydelig skritt fremover for AIs fremgang mot intelligens på menneskelig nivå, sa Ben Hagag, forskningssjef ved Darrow, et selskap som bruker maskinlæringsalgoritmer, til Lifewire i et e-postintervju..

"Begrunnelsen bak en modells beslutning er viktig for både maskinlæringsforskere og beslutningstaker," sa Hagag. "Den førstnevnte ønsker å forstå hvor god modellen er og hvordan den kan forbedres, mens den sistnevnte ønsker å utvikle en følelse av tillit til modellen, så de må forstå hvorfor den produksjonen ble spådd."

Men Hagag advarte om at MIT-forskningen er basert på antagelsen om at vi forstår eller kan kommentere menneskelig forståelse eller menneskelig resonnement.

"Det er imidlertid en mulighet for at dette kanskje ikke er nøyaktig, så mer arbeid med å forstå menneskelig beslutningstaking er nødvendig," la Hagag til.

Image
Image

Fremskritt innen AI kan fremskynde utviklingen av datamaskiners evne til å forstå språk og revolusjonere måten AI og mennesker samhandler på, sa Buteneers. Chatbots kan forstå hundrevis av språk om gangen, og AI-assistenter kan skanne tekster for svar på spørsmål eller uregelmessigheter.

«Noen algoritmer kan til og med identifisere når meldinger er uredelige, noe som kan hjelpe både bedrifter og forbrukere med å luke ut spam-meldinger,» la Buteneers til.

Men, sa Buteneers, AI gjør fortsatt noen feil som mennesker aldri ville gjort. "Selv om noen bekymrer seg for at AI vil erstatte menneskelige jobber, er realiteten at vi alltid vil trenge folk som jobber sammen med AI-roboter for å hjelpe til med å holde dem i sjakk og holde disse feilene i sjakk samtidig som vi opprettholder en menneskelig kontakt i virksomheten," la han til.

Anbefalt: