Meta's 'Free Expression'-push resulteert in veel minder verwijderde content

Meta kondigde in januari aan dat het een einde zou maken aan een aantal inspanningen op het gebied van contentmoderatie, de regels zou versoepelen en meer nadruk zou leggen op het ondersteunen van "vrije meningsuiting". De veranderingen resulteerden in minder verwijderde berichten van Facebook en Instagram, zo maakte het bedrijf donderdag bekend in zijn kwartaalrapport over de Community Standards Enforcement. Meta gaf aan dat het nieuwe beleid had geholpen om het aantal onterecht verwijderde berichten in de VS te halveren, zonder dat gebruikers massaal werden blootgesteld aan meer aanstootgevende content dan vóór de wijzigingen.
Het nieuwe rapport , waarnaar werd verwezen in een update van een blogpost van Meta Global Affairs Chief Joel Kaplan uit januari, toont aan dat Meta van januari tot en met maart van dit jaar wereldwijd bijna een derde minder content van Facebook en Instagram heeft verwijderd vanwege overtreding van de regels dan in het voorgaande kwartaal, oftewel ongeveer 1,6 miljard items vergeleken met iets minder dan 2,4 miljard, volgens een analyse van WIRED. In de afgelopen kwartalen was het totale aantal verwijderde items van de techgigant per kwartaal gestegen of gelijk gebleven.
Op Instagram en Facebook meldde Meta ongeveer 50 procent minder berichten te hebben verwijderd vanwege overtreding van de spamregels, bijna 36 procent minder vanwege kindermishandeling en bijna 29 procent minder vanwege haatdragend gedrag. Van de elf berichten die Meta noemt, namen de verwijderingen alleen toe in één belangrijke categorie van de regels: content met zelfmoord en zelfbeschadiging.
De hoeveelheid content die Meta verwijdert, fluctueert regelmatig van kwartaal tot kwartaal, en een aantal factoren zou kunnen hebben bijgedragen aan de daling in het aantal verwijderingen. Maar het bedrijf zelf erkende dat "veranderingen om handhavingsfouten te verminderen" een reden waren voor de grote daling.
"Op verschillende beleidsgebieden zagen we een afname in de hoeveelheid content waartegen actie werd ondernomen en een afname in het percentage content waarvoor we actie ondernamen voordat een gebruiker deze meldde", schreef het bedrijf. "Dit was deels te danken aan de wijzigingen die we hebben doorgevoerd om ervoor te zorgen dat we minder fouten maken. We zagen ook een overeenkomstige afname in de hoeveelheid content waarvoor bezwaar werd gemaakt en die uiteindelijk werd hersteld."
Meta versoepelde begin dit jaar enkele van zijn contentregels, die CEO Mark Zuckerberg omschreef als "net niet in lijn met het mainstream discours". De wijzigingen stonden Instagram- en Facebook-gebruikers toe om taal te gebruiken die mensenrechtenactivisten als haatdragend beschouwen jegens immigranten of personen die zich identificeren als transgender. Zo staat Meta nu "beschuldigingen van psychische aandoeningen of afwijkingen toe op basis van geslacht of seksuele geaardheid".
Als onderdeel van de ingrijpende veranderingen, die werden aangekondigd vlak voordat Donald Trump aan zijn tweede termijn als president van de VS zou beginnen, vertrouwde Meta ook niet langer op geautomatiseerde hulpmiddelen om berichten te identificeren en te verwijderen waarvan werd vermoed dat ze minder ernstige schendingen van de regels bevatten. Volgens Meta bevatten ze te veel fouten, wat tot frustratie leidde bij gebruikers.
In het eerste kwartaal van dit jaar waren de geautomatiseerde systemen van Meta verantwoordelijk voor 97,4 procent van de content die van Instagram werd verwijderd op grond van het haatzaaiende beleid van het bedrijf, een daling van slechts 1 procentpunt ten opzichte van eind vorig jaar. (Gebruikersmeldingen aan Meta waren verantwoordelijk voor het resterende percentage.) Maar het aantal geautomatiseerde verwijderingen van content vanwege pesten en intimidatie op Facebook daalde met bijna 12 procentpunten. In sommige categorieën, zoals naaktheid, waren de systemen van Meta iets proactiever dan in het voorgaande kwartaal.
Gebruikers kunnen bezwaar aantekenen tegen verwijderingen van content, en Meta herstelt soms berichten waarvan het vaststelt dat ze ten onrechte zijn verwijderd. In de update van Kaplans blogpost benadrukte Meta de sterke afname van onterechte verwijderingen. "Deze verbetering volgt op de toezegging die we in januari hebben gedaan om onze focus te verleggen naar het proactief handhaven van ernstige overtredingen en het verbeteren van onze nauwkeurigheid door middel van systeemaudits en aanvullende signalen", schreef het bedrijf.
Sommige Meta-werknemers vertelden WIRED in januari dat ze bezorgd waren dat de beleidswijzigingen zouden kunnen leiden tot een gevaarlijke vrije markt op Facebook en Instagram. Hierdoor zouden de platforms steeds ongastvrijer worden voor gebruikers om met elkaar te praten en tijd door te brengen.
Maar volgens eigen steekproeven schat Meta dat gebruikers in het eerste kwartaal gemiddeld één tot twee haatdragende berichten per 10.000 bekeken berichten tegenkwamen, een daling ten opzichte van ongeveer twee tot drie berichten eind vorig jaar. De platforms van Meta blijven groeien: in maart gebruikten ongeveer 3,43 miljard mensen minstens één van hun apps, waaronder WhatsApp en Messenger, een stijging ten opzichte van 3,35 miljard in december.
wired