Key takeaways
- Algorithmic bias er skadelig for tenåringer som bruker mye tid på internett, sier eksperter.
- Twitter-brukere støtt nylig på et problem der svarte ansikter ble utrangert til fordel for hvite.
- Hjerner i utvikling av tenåringer kan være spesielt utsatt for de skadelige effektene av algoritmisk skjevhet, sier forskere.
Fordommene bakt inn i noe teknologi, kjent som algoritmisk skjevhet, kan være skadelig for mange grupper, men eksperter sier at det er spesielt skadelig for tenåringer.
Algorithmic bias, når datasystemer viser fordomsfulle resultater, er et økende problem. Twitter-brukere fant nylig et eksempel på skjevhet på plattformen da en bildegjenkjenningsalgoritme som beskjærer bilder kuttet ut svarte ansikter til fordel for hvite. Selskapet beklaget problemet, men har ennå ikke gitt ut en løsning. Det er et eksempel på skjevheten som tenåringer møter når de går på nettet, noe de gjør mer enn noen annen aldersgruppe, sier eksperter.
"De fleste tenåringer er ikke klar over at sosiale medieselskaper har dem på plass for å promotere spesifikt innhold som de tror brukere vil like [for] å få dem til å bli så lenge som mulig på plattformen," Dr. Mai- Ly Nguyen Steers, assisterende professor ved School of Nursing ved Duquesne University som studerer bruk av sosiale medier blant ungdom/høgskolestudenter, sa i et e-postintervju.
"Selv om det er en viss grad av bevissthet rundt algoritmen, er effekten av å ikke få nok likes og kommentarer fortsatt kraftig og kan påvirke tenåringenes selvtillit," la Steers til.
Developing Brains
Algorithmic bias kan påvirke tenåringer på uforutsette måter siden deres prefrontale cortex fortsatt er i utvikling, forklarte Mikaela Pisani, Chief Data Scientist ved Rootstrap, i et e-postintervju.
Effekten av å ikke få nok likes og kommentarer er fortsatt kraftig og kan påvirke tenåringer sin selvtillit.
"Tenåringer er spesielt sårbare for fenomenet "Social Factory", der algoritmer skaper sosiale klynger på nettplattformer, noe som fører til angst og depresjon hvis tenåringens behov for sosial godkjenning ikke blir oppfylt," sa Pisani. "Algorithmer forenkler basert på tidligere ufullkomne data, noe som fører til en overrepresentasjon av stereotypier på bekostning av mer nyanserte tilnærminger til identitetsdannelse.
"Når vi tar det bredere perspektivet, er vi også overlatt til å stille spørsmål ved som samfunn om vi vil ha algoritmer som former tenåringenes reiser inn i voksenlivet, og støtter dette systemet til og med snarere enn å kvele individuell personlig vekst?"
På grunn av disse problemene er det et økende behov for å ha tenåringer i tankene når de designer algoritmer, sier eksperter.
"Basert på innspill fra utviklingsspesialister, datavitere og ungdomsforkjempere, kan 2000-tallets retningslinjer for personvern og algoritmisk design også konstrueres med ungdommens spesielle behov i tankene," Avriel Epps-Darling, en doktorgrad. student ved Harvard, skrev nylig. "Hvis vi i stedet fortsetter å bagatellisere eller ignorere måtene tenåringer er sårbare for algoritmisk rasisme, vil skadene sannsynligvis gi gjenklang gjennom kommende generasjoner."
Combating Bias
Inntil det finnes en løsning, prøver noen forskere å finne måter å redusere skaden på unge mennesker av partiske algoritmer.
«Intervensjoner har vært fokusert på å få tenåringer til å innse at deres sosiale mediemønstre påvirker deres mentale helse negativt, og prøver å komme opp med strategier for å redusere dette (f.eks. redusert bruk av sosiale medier),» sa Steers.
"Noen av studentene vi har intervjuet har indikert at de føler seg tvunget til å generere innhold for å forbli "relevant", selv om de ikke ønsker å gå ut eller poste, fortsatte hun. "Men de føler at de trenger å generere innhold for å opprettholde kontakten med følgere eller venner."
Det ultimate svaret kan være å fjerne menneskelig skjevhet fra datamaskiner. Men siden programmerere bare er mennesker, er det en tøff utfordring, sier eksperter.
En mulig løsning er å utvikle datamaskiner som er desentralisert og programmert til å glemme ting de har lært, sier John Suit, Chief Technology Officer i robotikkfirmaet KODA.
"Gjennom et desentralisert nettverk blir data og analysene av disse dataene kompilert og analysert fra flere punkter," sa Suit i et e-postintervju. "Data samles inn og behandles ikke fra en enkelt AI-sinnbehandling innenfor algoritmens grenser, men hundrevis eller til og med tusenvis.
"I takt med at data samles inn og analyseres, glemmes gamle "konklusjoner" eller overflødige data. Gjennom dette systemet vil en algoritme som kan ha startet med skjevhet etter hvert korrigere og erstatte den skjevheten hvis den viser seg å være feil. «
Selv om skjevhet kan være et eldgammelt problem, kan det være måter å bekjempe det på, i det minste online. Å designe datamaskiner som fjerner våre fordommer er det første trinnet.