YouTubes nye tidsbegrensning AI bekymrer LGBTQ+-fellesskapet

Innholdsfortegnelse:

YouTubes nye tidsbegrensning AI bekymrer LGBTQ+-fellesskapet
YouTubes nye tidsbegrensning AI bekymrer LGBTQ+-fellesskapet
Anonim

Key takeaways

  • YouTubes automatiske aldersbegrensende programvare er grunn til bekymring for LHBTQ+-innhold på plattformen.
  • Selskapet har blitt skjemmet av kontroverser angående LHBTQ+-innholdsskapere som fester tvil.
  • Fordommer i maskinlæring gir troverdighet til ideen om at dens ufullkomne implementering av filtre sannsynligvis vil begrense tilgangen urettmessig.
Image
Image

Med en historie med urettferdig målretting av LGBTQ+-innholdsskapere i sin modereringsprosess, blir YouTubes nye AI-baserte teknologi sett på som et urovekkende neste skritt for teknologigiganten.

På den offisielle YouTube-bloggen i forrige uke avduket videodelingsplattformen planer om å lansere en ny automatisk programvare for å "mer konsekvent bruke aldersbegrensninger" på videoer som anses som upassende for yngre seere.

Motivert av nylige bekymringer om barn på appen, er det nye systemet basert på maskinlæringsprogramvare for kunstig intelligens med muligheten til å gi avkall på menneskelige moderatorer for en mer automatisk prosess. Problemet? YouTubes automatiserte systemer har blitt anklaget for å skille ut LHBTQ+-innhold og skapere bare for eksisterende.

Selv om det ikke er ondsinnet, noe jeg ikke tror det er, er det mangel på innspill fra forskjellige stemmer – eller i det minste mangel på respekt.

"Maskinlæring er informert av og skapt av mennesker, og det er mulig å ha disse skjevhetene som er iboende i det eller lært av maskinen selv," sa YouTuber Rowan Ellis i et telefonintervju med Lifewire. «Dets skjevhet med hensyn til [LGBTQ+]-innhold har vært tydelig i de tidligere erfaringene til [LGBTQ+]-youtubere, og jeg har ikke sett bevis på at noe har blitt gjort for å stoppe det.«

Baby, Now We Got Bad Blood

Ellis er en YouTuber som lager pedagogisk innhold med en feministisk og skeiv tilbøyelighet, og i 2017 publiserte hun en video om selskapets begrensede modus. Som et innledende forsøk på automatisk innholdsmoderering, tillot denne modusen brukere å forhåndsskjerme "potensielt voksent innhold" fra søkeforslag og -anbefalinger.

Med over 100 000 visninger mener hun at det var et bevisst forsøk på å utelukke kanalen hennes fra restriksjoner på grunn av hennes vokale motstand mot utskeielsene i YouTubes nye skritt mot moderering. Andre brukere på plattformen var ikke så heldige, og de fikk YouTube til å vite det.

Et gruppesøksmål mot YouTube ble anlagt i august 2019 av en gruppe på åtte LHBTQ+-skapere som anklaget selskapet Silicon Valley for å begrense queer- og transvideoskapere og innhold. Søksmålet hevder at nettstedet bruker ulovlig innholdsregulering, distribusjon og inntektsgenereringspraksis som stigmatiserer, begrenser, blokkerer, demonetiserer og skader LHBT-saksøkerne og det større LHBT-samfunnet økonomisk.«Den er fortsatt på vei gjennom domstolene i California.

Maskinlæring er informert av og skapt av mennesker, og det er mulig å ha disse skjevhetene som er iboende i det eller lært av maskinen selv.

I juni samme år fikk plattformen en flom av medieoppmerksomhet etter å ha nektet å raskt irettesette den populære konservative kommentatoren Steven Crowder for en måneder lang, homofobisk trakasseringskampanje mot Vox-journalisten og -verten Carlos Maza. Dette sementerte det Ellis sa er et mønster med nettplattformen for å ignorere de unike utfordringene queer-skapere står overfor. LHBTQ+-skapere sin mangel på tro på YouTubes evne til å stille opp for dem er ikke uten fortjeneste.

"Jeg tror ikke de har forstått behovet for åpenhet i forhold til sosiale spørsmål og sikring av likestilling," sa hun. "Det er fortsatt barn over hele verden som har vokst opp med ideen om at det å være homofil er g alt, og når de begynner å stille spørsmål ved den troen, men finner den stengt av et trygt søk eller restriksjon, vil det forsterke denne ideen om at det er feil, upassende, voksen, pervers og skitten.«

Failing to Auto-Learning

Med sin elendige historie angående LGBTQ+-innholdsskapere på plattformen, er det fortsatt bekymringer for implementeringen av maskinlæringsprogramvarens evne til å skjelne større normer. Don Heider, administrerende direktør ved Markkula Center for Applied Ethics, antyder at potensialet for dårskap er en for stor risiko til å spille.

"Det er vanskelig å tro at AI effektivt kan styre innhold fra flere land med forskjellige kulturelle normer og standarder," skrev han i et e-postintervju. "AI blir altfor ofte sett på som svaret på komplekse spørsmål. På dette tidspunktet sliter AI og måten den er skapt på med å takle selv enkle oppgaver, for ikke å snakke om innholdsmoderering med et hvilket som helst nivå av kompleksitet."

YouTube bestemte seg for bruk av AI-teknologi på grunn av mangel på konsekvent moderering av menneskelige moderatorer, ifølge bloggen. Å øke bruken av datastyrte filtre for å fjerne videoer som ble ansett som uegnet ble normen, og å implementere de samme prosedyrene for aldersbegrensningspolitikken blir sett på som et logisk neste skritt.

Som et selskap som ønsker å gradvis forbedre prosessene sine etter langvarig kritikk angående forholdet til barneforbrukere, kommer denne avgjørelsen ikke som noen overraskelse.

Jeg tror ikke de har forstått behovet for åpenhet i forhold til sosiale spørsmål og sikring av likestilling.

Barn har blitt en viktig demografisk gruppe for videodelingsnettstedet. I august fant digitalvideoanalysefirmaet Tubular at bortsett fra musikkvideoer toppet innhold rettet mot barn månedssluttlisten for de mest viste videoene på YouTube.

Bedriftens interesse i å beskytte dette lukrative, fremvoksende kraftsenteret på plattformen er fornuftig. Verktøyene som brukes for å håndheve denne beskyttelsen er imidlertid fortsatt ubehagelige for de som allerede har funnet seg selv nedstrøms for selskapets modereringsprosedyrer.

"Min bekymring er at det vil gjøre mye skade og ikke beskytte [LGBTQ+]-ungdom som trenger informativt, ærlig og ærlig innhold som mange [LGBTQ+]-youtubere kan levere, men som blir flagget i systemet sitt som upassende," sa Ellis.«Selv om det ikke er ondsinnet, noe jeg ikke tror det er, er det mangel på innspill fra forskjellige stemmer – eller i det minste mangel på respekt.

"Vi ser det hele tiden i teknologien. Når du ser på ansiktsgjenkjenning som ikke klarer å skille forskjellige svarte ansikter, eller når vi ser på medisin og ser at medisiner bare er testet på et bestemt kjønn. Disse er større samtaler, og YouTube er ikke unntatt fra det."