Key takeaways
- Facebooks tilsynsstyre har bedt om klarere feilinformasjonsregler på nettstedet til sosiale medier.
- Styret har for øyeblikket omgjort flere beslutninger tatt av Facebook om å fjerne innlegg som det anså som feilinformasjon eller hatytringer, men som faktisk ikke var det.
- Et behov for klarere definisjoner av hva som er og ikke er feilinformasjon eller hatytringer er nødvendig, spesielt med Facebooks internasjonale rekkevidde.
Facebooks tilsynsstyre, som ble satt på plass for ytterligere å føre tilsyn med fjerning og moderering av innlegg på nettstedet, har omgjort noen tidligere beslutninger som er tatt angående innlegg som ble fjernet, noe som belyser et behov for klarere definisjoner og regler.
Tilsynsstyret tok på seg sine første fem saker i desember 2020. Mens ett av innleggene som ble inkludert i anmeldelsen var fra USA, kom innleggene til sammen fra fire forskjellige kontinenter, som alle kunne se uttalelsene i helt andre måter. På grunn av dette må retningslinjene som Facebook setter i gang være kortfattede og må fungere med det fellesskapet som modereringsverktøyene måtte fokusere på.
"Facebooks 'uavhengige gjennomgang'-aktivitet må være konsistent på tvers av internasjonale grenser," skrev Jim Isaak, en tidligere leder av Institute of Electrical and Electronics Engineers, og en 30-årig veteran fra teknologiindustrien, til oss via e-post. "Men det som er "hatfulle ytringer" i USA kan defineres som patriotisk i andre autokratiske samfunn - noe som øker kompleksiteten i det som gjøres."
Lines in the Sand
Dette behovet for konsistens og mer konsise regler spiller allerede inn. Av de fem sakene Facebooks tilsynsstyre tok på seg i desember, bestemte gruppen seg for å oppheve fire av sakene, og to av dem viser tydelig behovet for bedre måtehold.
I en av de omgjorte sakene avgjorde styret til fordel for en kvinne hvis Instagram-innlegg om brystkreft ble fjernet fra nettstedet automatisk for å ha brutt retningslinjene for voksen nakenhet og seksuell aktivitet.
Mens Facebook allerede hadde gjenopprettet fotografiet, viste styret innvendinger mot at det ble fjernet i utgangspunktet. Styret anbef alte til og med Facebook å sette på plass et klagesystem som lar brukere se når et innlegg har blitt fjernet, hvorfor det har blitt fjernet, og til og med foreslå måter å snakke med et menneske for å søke en løsning.
Styret fant at mens kvinnen hadde delt et innlegg som inneholdt avdekkede og synlige kvinnelige brystvorter, hadde ikke bildet brutt Instagrams retningslinjer for fellesskapet. Standarden for voksen nakenhet og seksuell aktivitet Facebook opprettholder i sine fellesskapsstandarder tillater nakenhet når brukeren søker å øke bevisstheten av en medisinsk årsak eller annen årsak.
Et annet innlegg, som ble delt fra Myanmar, inkluderte språk om muslimer som styret sa kan anses som støtende, men som ikke nådde nivået av hatefulle ytringer for å rettferdiggjøre at det ble fjernet eller vurdert mot reglene.
Det er her ting begynner å bli spesielt vanskelig.
Hvilken vei er opp?
"Facebook opererer internasjon alt," sa Isaak til Lifewire via e-post. «Hver jurisdiksjon har sine egne regler, og Facebook kan bli holdt ansvarlig under de i andre land.»
Facebook må huske på alle reglene for territoriene de opererer innenfor når de setter opp nye retningslinjer. Ved å gjøre retningslinjene uklare, gir Facebook rom for feil som kan føre til at tilsynsstyret må omstøte flere saker i fremtiden.
Når spredningen av hatytringer og feilinformasjon blir så utbredt – spesielt på sosiale medier som Facebook og Twitter – er det viktig for disse selskapene å tilby klare retningslinjer som deretter kan brukes til å moderere fellesskapet.
Hva er "hatfulle ytringer" i USA kan defineres som patriotisk i andre autokratiske samfunn…
Selvfølgelig er det alltid andre alternativer for å redusere denne typen problemer. Faktisk ble en av sakene som styret opprinnelig skulle føre tilsyn med i desember fjernet fra dokumentet etter at brukeren slettet innlegget.
Brukergenerert moderering er noe vi allerede har sett være vellykket på nettsteder som Wikipedia, og nylig trappet Twitter selv opp ved å lansere Birdwatch, et fellesskapsdrevet modereringssystem for å stoppe spredningen av feilinformasjon.
Disse metodene har imidlertid andre problemer, og det er grunnen til at det å få en standard grunnlinje for fellesskapets forventninger vil være nøkkelen til at Facebook kan tilby bedre moderering av appene og nettstedene sine i fremtiden.