Kies land en taal

Kindermisbruik, geweld, mishandeling: Geeft Facebook niet om zijn content moderators?

kindermisbruik geweld mishandeling geeft facebook niet om zijn content moderators
PA

Recente onthullingen hebben de voortdurende verwaarlozing door Facebook van contractuele content moderators over de hele wereld blootgelegd. Nu de Online Safety Bill en andere wetgeving wordt aangenomen, roepen we wetgevers overal ter wereld op om deze gouden kans te grijpen en minimumnormen vast te stellen voor de manier waarop sociale-mediabedrijven schadelijke inhoud modereren, op een manier die de rechten van hun werknemers respecteert en handhaaft.

In 2019 wendde het bedrijf van Mark Zuckerberg zich tot Sama, een in de VS gevestigde onderaannemer, om zijn voornaamste partner te worden voor het modereren van inhoud in heel Afrika. Sama ondersteunt voornamelijk datadiensten voor Fortune 50-bedrijven, maar promoot zwaar zijn sociale missie om gemarginaliseerde mensen uit de armoede te halen door "waardig" werk te geven.

Maar in werkelijkheid, zo ontdekten verslaggevers, gebruikte Sama deze werknemers om duizenden uren aan moorden, verkrachtingen, zelfmoorden, seksueel misbruik van kinderen en andere grafische inhoud uit te ziften, zonder redelijke beloning, opleiding of emotionele steun.

Dit soort zaken zijn niet nieuw voor Facebook. Keer op keer hebben de praktijken van het bedrijf om inhoud te modereren geleid tot gediagnosticeerde PTSS, en zelfs tot zelfmoordpogingen. Het trauma van content moderators die werken voor Facebooks contractanten is goed gedocumenteerd, van Accenture in Phoenix, de VS tot Cognizant in Hyderabad, India en Arvato in Berlijn, Duitsland.

"Het modereren van Facebook-content tijdens het werk was zowel emotioneel als mentaal verwoestend," zei Daniel Motaung, een voormalig Facebook-contentmoderator bij Sama's in Nairobi. "Ik ging er goed in en ging er niet goed uit. Het veranderde de persoon die ik was."

En het gaat niet alleen om geweld en haatzaaien: ook de democratie loopt gevaar. In 2020 heeft Facebook toegezegd extra middelen beschikbaar te stellen voor betere content moderatie van desinformatie over verkiezingen in Afrika. "Het ondersteunen van verkiezingen in heel Afrika blijft een prioriteit, en we hebben zowel lokaal als wereldwijd ongekende middelen ingezet, waarbij het beschermen van de verkiezingsintegriteit centraal staat", aldus Akua Gyekye, de Public Policy Manager for Africa Elections van het bedrijf.

Maar uit een onderzoek van het Zuid-Afrikaanse 2021 Elections Anti-Disinformation Project bleek dat Facebook deze belofte niet heeft waargemaakt. Het bedrijf heeft vrijwel niets gedaan om de Zuid-Afrikaanse verkiezingen van 2021 te beschermen tegen de gevaren van desinformatie over de verkiezingen. Is dit weer een gevolg van de slechte werkomstandigheden in zijn Afrika moderatie kantoor? Wij denken van wel.

Er staat veel op het spel als de moderatie van inhoud faalt - het is zelfs dodelijk gebleken. Het conflict in Ethiopië heeft geleid tot duizenden doden en meer dan 2 miljoen ontheemden in 2021.

En dus schrijven we vandaag, na jaren van inactiviteit, om de CEO's van Meta en haar contractanten op te roepen om verantwoording af te leggen. Dit is hoe:
Ten eerste moeten wetgevers over de hele wereld de transparantie versterken door verplichte publieke audits van de toeleveringsketens van content moderators van sociale media op te nemen in wetgeving, zoals de Online Safety Bill en de onlangs geïntroduceerde Digital Services Oversight and Safety Act (DSOSA) in de VS. Regelgeving die de onlineveiligheid wil verbeteren, moet dat evenzeer doen voor inhoudsmoderators als voor wie dan ook.

Ten tweede moeten platforms de kosten op zich nemen van wat nodig is om hun platform veilig te houden. Dit betekent dat zij ervoor moeten zorgen dat moderatoren schadelijke inhoud slechts gedurende een beperkte periode per dag beoordelen, dat zij naar behoren worden betaald voor hun intensieve werk, dat zij huidige en voormalige moderatoren daadwerkelijke medische en psychiatrische zorg aanbieden en dat zij hun internationale arbeidsrechten eerbiedigen. Alle andere industrieën zijn verplicht om hun diensten veilig te maken, zelfs als daar kosten aan verbonden zijn. Facebook en dergelijke zouden niet anders moeten zijn.
Ten derde moet Facebook zijn niet-geredigeerde audits van Sama vrijgeven, of uitleggen waarom als die er niet zijn. Facebook moet ook zijn volledige lijst van outsourcing-partners van contentmoderators openbaar maken, zodat mensenrechtenorganisaties hun praktijken nauwkeurig kunnen onderzoeken.

Ten slotte moeten wetgevers over de hele wereld de klokkenluiders die naar buiten zijn getreden, beschermen door rechtstreeks hun steun te betuigen en zich ertoe te verbinden de wet en de publieke aandacht ten volle te benutten om hen, hun middelen van bestaan en hun gezinnen te behoeden voor represailles. Dit was een van de belangrijkste aanbevelingen van het wetsontwerp inzake onlineveiligheid (Joint Committee), dat de regering heeft aanvaard en heeft toegezegd de Public Interest Disclosure (Prescribed Persons) Order 2014 te wijzigen om ervoor te zorgen dat klokkenluiders die informatie over inbreuken op de onlineveiligheid melden aan Ofcom, worden beschermd.
We moeten deze moedige werknemers die zich melden beschermen en we moeten ervoor zorgen dat hun onthullingen een positieve impact hebben op de praktijken voor het modereren van inhoud over de hele wereld. Onze toekomst hangt ervan af.

Damian Collins is het conservatieve parlementslid voor Folkestone en Hythe; Sean Casten is de democratische afgevaardigde van het 6e district van Illinois; Phumzile van Damme is een voormalig parlementslid van de Democratische Alliantie in de Nationale Assemblee van Zuid-Afrika.

Er zijn veel manieren waarop u betrokken kunt raken en een verschil kunt maken om kindermishandeling te voorkomen. Kom in actie en kies de manier om bij te dragen die voor u het beste werkt.

Publish modules to the "offcanvs" position.