Twitter Algorithm's Racial Bias Points to Larger Tech Problem

Innholdsfortegnelse:

Twitter Algorithm's Racial Bias Points to Larger Tech Problem
Twitter Algorithm's Racial Bias Points to Larger Tech Problem
Anonim

Key takeaways

  • Twitter håper å bøte på det brukere kaller rasistisk skjevhet i programvaren for forhåndsvisning av bilder.
  • Teknikgigantens oppfordring kan være den kulturelle beregningen industrien trenger for å ta opp spørsmål om mangfold.
  • Techs mangel på mangfold skader effektiviteten til dens teknologiske fremskritt.
Image
Image

Twitter skal starte en undersøkelse av sin bildebeskjæringsalgoritme etter at det ble et populært tema som førte til en større samtale om mangfoldsspørsmål i teknologibransjen.

Den sosiale medier-juggernauten skapte overskrifter etter at brukere oppdaget tilsynelatende rasemessige skjevheter i forhåndsvisningsalgoritmen. Oppdagelsen skjedde etter at Twitter-bruker Colin Madland brukte plattformen til å kalle Zooms manglende gjenkjennelse av sine Black-kolleger som brukte greenscreen-teknologien, men i en storslått ironi fant han ut at Twitters bildebeskjæringsalgoritme oppførte seg på samme måte og deprioriterte svarte ansikter.

Det er absolutt et stort problem for enhver minoritet, men jeg tror det er et mye bredere problem også.

Andre brukere ble med på trenden som utløste en serie virale tweets som viser at algoritmen konsekvent prioriterte hvite og lysere ansikter, alt fra mennesker til tegneseriefigurer og til og med hunder. Denne feilen er et tegn på en større kulturell bevegelse i teknologiindustrien som konsekvent ikke har klart å ta hensyn til minoritetsgrupper, noe som har smittet over på den tekniske siden.

"Det får minoriteter til å føle seg forferdelige, som om de ikke er viktige, og det kan brukes til andre ting som kan føre til mer alvorlig skade i ettertid," Erik Learned-Miller, professor i informatikk ved universitetet fra Massachusetts, sa i et telefonintervju."Når du har bestemt deg for hva en programvare kan brukes til og alle skadene som kan oppstå, så begynner vi å snakke om måter å minimere sjansen for at det skal skje."

Canary on the Timeline

Twitter bruker nevrale nettverk for å automatisk beskjære bilder innebygd i tweets. Algoritmen er ment å oppdage ansikter for å forhåndsvise, men den ser ut til å ha en merkbar hvit skjevhet. Selskapets talskvinne Liz Kelley tvitret et svar på alle bekymringene.

Kelley tvitret, "takk til alle som tok opp dette. vi testet for skjevhet før vi sendte modellen og fant ikke bevis på rase- eller kjønnsskjevhet i testingen vår, men det er klart at vi har flere analyser for å gjør det. vi åpner kildekode for arbeidet vårt slik at andre kan gjennomgå og replikere."

Medforfatter av hvitboken "Facial Recognition Technologies in The Wild: A Call for a Federal Office", Learned-Miller er en ledende forsker på utskeielsene ved ansiktsbasert AI-læringsprogramvare. Han har diskutert den potensielle negative effekten av programvare for bildelæring i årevis, og har snakket om viktigheten av å skape en virkelighet der disse skjevhetene reduseres etter beste evne.

Mange algoritmer for ansiktsgjenkjenningsteknologi bruker referansesett for data, ofte kjent som treningssett, som er en samling bilder som brukes til å finjustere oppførselen til programvare for bildelæring. Det lar til slutt AI-en lett gjenkjenne et bredt spekter av ansikter. Imidlertid kan disse referansesettene mangle et mangfoldig utvalg, noe som fører til problemer som de som oppleves av Twitter-teamet.

"Selvfølgelig er det et stort problem for enhver minoritet, men jeg tror det er et mye bredere problem også," sa Learned-Miller. "Det er knyttet til mangel på mangfold i teknologisektoren og behovet for en sentralisert, regulatorisk kraft for å vise riktig bruk av denne typen kraftig programvare som er utsatt for misbruk og misbruk."

Teknikk mangler mangfold

Twitter er kanskje det siste teknologiselskapet på hugget, men dette er langt fra et nytt problem. Teknologifeltet er fortsatt et overveiende hvitt, evig mannsdominert felt, og forskere har funnet ut at mangelen på mangfold forårsaker en replikering av systemiske, historiske ubalanser i den utviklede programvaren.

I en rapport fra 2019 fra New York Universitys AI Now Institute fant forskere at svarte mennesker utgjør mindre enn 6 prosent av arbeidsstyrken hos de beste teknologibedriftene i landet. På samme måte utgjør kvinner bare 26 prosent av arbeiderne i feltet - en statistikk lavere enn deres andel i 1960.

Det får minoriteter til å føle seg forferdelige, som om de ikke er viktige, og det kan brukes til andre ting som kan forårsake mer alvorlig skade.

På overflaten kan disse representasjonsproblemene virke dagligdagse, men i praksis kan skaden som forårsakes være dyp. Forskere i AI Now Institute-rapporten antyder at dette har en årsakssammenheng med problemer med programvare som ofte ikke tar hensyn til ikke-hvite og ikke-mannlige populasjoner. Enten det er infrarøde såpedispensere som ikke klarer å oppdage mørkere hud eller Amazons AI-programvare som ikke klarer å skille kvinnelige ansikter fra ansiktene til sine mannlige kolleger, fører manglende evne til å håndtere mangfold i teknologiindustrien til at teknologien ikke klarer å håndtere en mangfoldig verden.

"Det er mange mennesker som ikke har tenkt gjennom problemene og egentlig ikke skjønner hvordan disse tingene kan forårsake skade og hvor betydelige disse skadene er," foreslo Learned-Miller om AI-bildelæring. "Forhåpentligvis krymper det antallet mennesker!"

Anbefalt: