• De geautomatiseerde contentmoderators van Facebook snappen veel talen die op de site worden gebruikt niet.
  • Ook menselijke controleurs spreken vaak de benodigde talen of dialecten niet.
  • Door deze tekortkomingen kan schadelijke en gewelddadige inhoud gedeeld worden en kunnen gebruikers illegaal zaken doen.

De door kunstmatige intelligentie aangedreven contentmoderators van Facebook kunnen sommige talen op het platform niet lezen. Daardoor ontstaat bezorgdheid over hoe het bedrijf content controleert in landen waar men geen Engels spreekt, meldde zakenkrant The Wall Street Journal donderdag.

De krant zag bedrijfsdocumenten in waaruit blijkt dat Facebook niet genoeg werknemers heeft die lokale talen spreken om toezicht te houden. Het gaat hierbij voornamelijk om het controleren van berichten rondom belangrijke gebeurtenissen in landen of markten waar het bedrijf zich op richt.

Facebook is flink actief om het aantal niet-Amerikaanse gebruikers te verhogen. Meer dan 90 procent van de maandelijkse gebruikers van het sociale netwerk bevindt zich inmiddels buiten Noord-Amerika.

Het rapport toont aan hoe het gebrek aan menselijke controleurs met talenkennis het lastig maakt voor Facebook om op schadelijke online inhoud te controleren. Dit gaat samen met het feit dat we nog niet voldoende op robots kunnen vertrouwen om gevaarlijke berichten te verwijderen.

Uit de documenten die The Wall Street Journal inzag, blijkt ook dat werknemers van Facebook hun bezorgdheid uitten over hoe het systeem kwaadwillende partijen in staat stelde de site te gebruiken voor dubieuze doeleinden.

Falende contentmoderatie: een kostenpost

Een voormalig vicepresident van het bedrijf vertelt aan de krant dat Facebook potentiële schade buiten de VS ziet als “een kostenpost.” Hij zegt ook dat er “zeer zelden een significante, gezamenlijke inspanning is om te investeren in het herstellen van die gebieden.”

Drugskartels en mensenhandelaren gebruikten Facebook om slachtoffers te werven. Eén kartel dat volgens Amerikaanse functionarissen de grootste criminele drugsdreiging voor de VS vormt, gebruikte meerdere Facebookpagina’s om gewelddadige, grafische beelden en foto’s van wapens te delen. Een intern onderzoeksteam wilde het kartel volledig verbieden, maar het team dat de opdracht kreeg dit te doen gaf hier nooit gevolg aan, aldus het rapport.

In Ethiopië gebruikten groepen Facebook om aan te zetten tot geweld tegen het Tigrayaanse volk, dat het slachtoffer is van etnische zuivering. Die inhoud glipte door de mazen van het net door een gebrek aan moderatoren die de moedertaal spreken. Het bedrijf had ook zijn omgangsregels (community standards) niet vertaald naar de lokale talen, volgens The Wall Street Journal.

Een bijkomend probleem is dat de meeste Marokkaans-Arabisch sprekende Facebook-moderatoren geen andere Arabische dialecten spreken. Daardoor kan gewelddadige inhoud blijven staan.

Verwijdering pas bij publieke aandacht

In de meeste gevallen haalde Facebook schadelijke berichten pas weg toen ze publieke aandacht kregen. Maar het nam daarna geen verdere actie. De geautomatiseerde systemen, classifiers genoemd, die de publicatie van die inhoud in de eerste plaats mogelijk maakten, bleven onveranderd.

Facebook reageerde niet tijdig op een verzoek om commentaar.

Woordvoerder Andy Stone vertelde The Wall Street Journal dat “in landen met een risico op conflicten en geweld, we een uitgebreide strategie hebben. Hieronder valt het vertrouwen op wereldwijde teams met moedertaalsprekers in meer dan 50 talen. Ook gebruiken we educatieve middelen, partnerschappen met lokale experts en feitencheckers van derde partijen om mensen veilig te houden.”

De kwestie doet denken aan wat Facebook in 2018 erkende als een gebrek aan actie tegen groepen die zich richten op de minderheidsgroep Rohingya, slachtoffers van etnische zuivering, in Myanmar.

Een ander voorbeeld is toen Facebook-medewerkers in mei meldden dat de verwijdering van berichten die de hashtag al-Aqsa, een moskee in Jeruzalem die de derde heiligste islamitische plaats is, bevatten “volledig onaanvaardbaar” was. Het bedrijf verwijderde de hashtag vanwege de Al-Aqsa Martelaren Brigades, een Palestijnse militante coalitie die door de VS en de EU als een terroristische organisatie is bestempeld.

Lees het volledige verslag van The Wall Street Journal.