Why This Matters
Å redusere antallet konspirasjonsvideoer som automatisk promoteres og tjene penger på YouTubes vanlige besøkende kan bare hjelpe i kampen mot falsk informasjon og ekstremistiske ideologier.
En ny studie viser at YouTubes plan om å slutte å anbefale konspirasjonsvideoer i den vanlige videostrømmen fungerer.
Noen bakgrunn: På grunn av kritikk over promotering av konspirasjonsvideoer (mirakelkurer, jorden er flat, osv.), annonserte YouTube at de ville slå ned på slike " borderline content" i januar 2019.
Hvor vi er nå: Forskerne, fra University of California, Berkeley og Mozilla Foundation, utviklet et system for å klassifisere om en video er "konspiratorisk", og deretter emulerte YouTubes Watch-Next-algoritme for å filtrere gjennom ett års verdi av hva algoritmen aktivt ville fremme. Marc Faddoula, Guillaume Chaslotb og Hany Farida fant ut at det faktisk er en reduksjon i antallet konspirasjonsmerkede videoer som aktivt anbefales.
Den generelle reduksjonen av konspiratoriske anbefalinger er en oppmuntrende trend.
Dette er ikke løst: Mens forskerne er forsiktig optimistiske, innser de at problemet med radikalisering gjennom slike videoer er et større problem. "De med en historie med å se konspiratorisk innhold kan absolutt fortsatt oppleve YouTube som en filterboble," skrev de, "forsterket av personlige anbefalinger og kanalabonnementer.«
The bottom line: Forskerne merker også at utformingen av YouTubes algoritme har enda større innvirkning på informasjonsflyten enn for eksempel en redaksjon i et mer tradisjonelt medie uttak. Et så kraftig verktøy, hevder forfatterne av denne studien, bør være gjenstand for mer åpenhet og offentlig testing nå og i fremtiden.