AI kunne endelig bidra til å slå ned på hatefulle ytringer

Innholdsfortegnelse:

AI kunne endelig bidra til å slå ned på hatefulle ytringer
AI kunne endelig bidra til å slå ned på hatefulle ytringer
Anonim

Key takeaways

  • Et nytt programvareverktøy lar AI overvåke internettkommentarer for hatefulle ytringer.
  • AI er nødvendig for å moderere internettinnhold på grunn av det enorme volumet av materiale som overgår menneskelige evner.
  • Men noen eksperter sier at AI-overvåking av tale vekker bekymringer om personvern.
Image
Image

Når hatytringer på nettet øker, sier ett selskap at det kan ha en løsning som ikke er avhengig av menneskelige moderatorer.

En oppstart k alt Spectrum Labs gir kunstig intelligens-teknologi til plattformleverandører for å oppdage og stenge giftige sentraler i sanntid. Men eksperter sier at AI-overvåking også reiser personvernproblemer.

"AI-overvåking krever ofte å se på mønstre over tid, noe som gjør det nødvendig å beholde dataene," sa David Moody, en seniormedarbeider ved Schellman, et selskap for vurdering av sikkerhet og personvern, til Lifewire i et e-postintervju. "Disse dataene kan inkludere data som lover har merket som personverndata (personlig identifiserbar informasjon eller PII)."

Mer hatytringer

Spectrum Labs lover en høyteknologisk løsning på det eldgamle problemet med hatefulle ytringer.

"I gjennomsnitt hjelper vi plattformer med å redusere innsatsen for moderering av innhold med 50 % og øke gjenkjenningen av giftig atferd med 10 ganger," hevder selskapet på sin nettside.

Spectrum sier at det samarbeidet med forskningsinstitutter med ekspertise på spesifikk skadelig atferd for å bygge over 40 modeller for atferdsidentifikasjon. Selskapets Guardian innholdsmodereringsplattform ble bygget av et team av dataforskere og moderatorer for å støtte å beskytte lokalsamfunn mot toksisitet.«

Det er et økende behov for måter å bekjempe hatytringer på ettersom det er umulig for et menneske å overvåke hver eneste del av netttrafikken, Dylan Fox, administrerende direktør for AssemblyAI, en oppstart som gir talegjenkjenning og har kunder involvert i å overvåke hat tale, fort alte Lifewire i et e-postintervju.

"Det er omtrent 500 millioner tweets om dagen bare på Twitter," la han til. "Selv om én person kunne sjekke en tweet hvert 10. sekund, ville Twitter trenge å ansette 60 tusen mennesker for å gjøre dette. I stedet bruker vi smarte verktøy som AI for å automatisere prosessen."

I motsetning til et menneske, kan kunstig intelligens operere 24/7 og potensielt være mer rettferdig fordi den er designet for å anvende reglene på en enhetlig måte for alle brukere uten at noen personlig tro forstyrrer, sa Fox. Det er også en kostnad for de menneskene som må overvåke og moderere innhold.

"De kan bli utsatt for vold, hat og grusomme handlinger, som kan være skadelig for en persons mentale helse," sa han.

Spectrum er ikke det eneste selskapet som søker å oppdage hatytringer på nettet automatisk. For eksempel lanserte Center Malaysia nylig en online tracker designet for å finne hatefulle ytringer blant malaysiske nettbrukere. Programvaren de utviklet, k alt Tracker Benci, bruker maskinlæring for å oppdage hatytringer på nettet, spesielt på Twitter.

Utfordringen er hvordan man kan skape rom der folk virkelig kan engasjere seg konstruktivt med hverandre.

Personvernbekymringer

Mens tekniske løsninger som Spectrum kan bekjempe hatefulle ytringer på nettet, reiser de også spørsmål om hvor mye politidatamaskiner bør gjøre.

Det er implikasjoner for ytringsfrihet, men ikke bare for foredragsholdere hvis innlegg vil bli fjernet som hatytringer, sa Irina Raicu, direktør for internett-etikk ved Markkula Center for Applied Ethics ved Santa Clara University, til Lifewire i en e-post intervju.

"Å tillate trakassering i navnet "ytringsfrihet" har drevet målene for slike ytringer (spesielt når de er rettet mot bestemte individer) til å slutte å snakke - for å forlate ulike samtaler og plattformer helt, " sa Raicu."Utfordringen er hvordan man kan skape rom der folk virkelig kan engasjere seg konstruktivt med hverandre."

AI-taleovervåking bør ikke reise personvernproblemer hvis selskaper bruker offentlig tilgjengelig informasjon under overvåking, sa Fox. Men hvis selskapet kjøper detaljer om hvordan brukere samhandler på andre plattformer for å forhåndsidentifisere problematiske brukere, kan dette skape personvernbekymringer.

"Det kan definitivt være litt av en gråsone, avhengig av applikasjonen," la han til.

Image
Image

Justin Davis, administrerende direktør i Spectrum Labs fort alte Lifewire i en e-post at selskapets teknologi kan gjennomgå 2 til 5 tusen rader med data i løpet av brøkdeler av et sekund. "Det viktigste er at teknologi kan redusere mengden giftig innhold menneskelige moderatorer blir utsatt for," sa han.

Vi kan være på vei til en revolusjon innen AI som overvåker menneskelig tale og tekst på nettet. Fremtidige fremskritt inkluderer bedre uavhengige og autonome overvåkingsevner for å identifisere tidligere ukjente former for hatytringer eller andre sensurerbare mønstre som vil utvikle seg, sa Moody.

AI vil også snart kunne gjenkjenne mønstre i de spesifikke talemønstrene og relatere kilder og deres andre aktiviteter gjennom nyhetsanalyse, offentlige registreringer, trafikkmønsteranalyse, fysisk overvåking og mange andre alternativer, la han til.

Men noen eksperter sier at mennesker alltid må jobbe med datamaskiner for å overvåke hatefulle ytringer.

"AI alene vil ikke fungere," sa Raicu. "Det må anerkjennes som ett ufullkomment verktøy som må brukes sammen med andre svar."

Rettelse 25.1.2022: Lagt til sitat fra Justin Davis i 5. avsnitt fra slutten for å gjenspeile en e-post etter publisering.

Anbefalt: