Maandag 4 mei 2026 — Editie #4

RainbowNews

The global platform for LGBTQ+ news, analysis and stories. Independent and inclusive.

NederlandsUKGlobalDeutschFrançaisEspañolBrasilAsia-PacificLatinoamérica
Kennisbank

Meta moet lesbische content herstellen na uitspraak toezichtorgaan

Het Oversight Board van Meta oordeelde dat het bedrijf lesbische Instagram-posts onterecht verwijderde. Wat betekent dit voor contentmoderatie?

RainbowNews Redactie6 mei 2026 — Internationaal3 min lezen
···

Het Oversight Board van Meta heeft bepaald dat het bedrijf lesbische content onterecht van Instagram verwijderde. Het orgaan zei dat de verwijderingen tegen Meta's eigen regels ingingen. Meta moet de posts nu herstellen. Het bedrijf moet ook zijn moderatiesystemen controleren. De uitspraak kwam in april 2026.

Het Oversight Board is onafhankelijk. Het controleert moeilijke content-beslissingen van Meta. Uitspraken over individuele posts zijn bindend. Beleidsadviezen zijn niet bindend. Meta reageert meestal binnen zestig dagen.

Waar de zaak over ging

De zaak betrof meerdere Instagram-posts van lesbische gebruikers. De posts gebruikten woorden als dyke en lesbian op een positieve manier. Meta's automatische systemen markeerden de content als haatspraak. Menselijke moderators bevestigden de verwijderingen.

Gebruikers tekenden bezwaar aan. Ze zeiden dat de woorden zelf-beschrijvend waren. Het Oversight Board was het met hen eens. Meta herkende reclaimed language niet. Dit is wanneer een groep een voormalig scheldwoord positief gebruikt.

Het orgaan schreef dat de verwijderingen de vrije meningsuiting beperkte. Het zei ook dat de moderatie zichtbaarheid voor lesbische gebruikers schaadde. Meta's eigen beleid staat reclaimed slurs toe. Dit geldt als de spreker tot die groep behoort.

Achtergrond: hoe contentmoderatie werkt

Meta gebruikt automatische tools en menselijke controleurs. Automatische systemen scannen miljarden posts per dag. Ze zoeken naar woorden en afbeeldingen die regels kunnen schenden. Gemarkeerde posts gaan naar moderators. Of ze worden meteen verwijderd.

Het systeem heeft bekende problemen. Automatische tools missen vaak context. Een woord kan in één post hatelijk zijn. In een ander kan het steunend zijn. LGBTQ+-groepen klagen hier al jaren over. Ze zeggen dat hun content vaker verwijderd wordt.

In 2021 rapporteerde mensenrechtengroep GLAAD dit probleem. Meta zei eraan te werken. Onderzoeken tonen aan dat het probleem blijft bestaan.

Wat de uitspraak praktisch betekent

Meta moet de specifieke posts herstellen. Het bedrijf moet ook zeggen wat het verandert. Het Oversight Board vroeg Meta om:

  • Detectie van reclaimed language verbeteren
  • Moderators trainen in LGBTQ+-context
  • Duidelijker uitleggen waarom posts verwijderd worden
  • Betere bezwaarsmogelijkheden bieden

De aanbevelingen van het orgaan zijn niet juridisch bindend. Maar Meta beloofde openbaar te reageren. In eerdere zaken accepteerde Meta meestal het advies.

Juridisch kader in Europa

De uitspraak komt op een belangrijk moment. De Europese Wet Digitale Diensten (DSA) is nu volledig actief. De DSA verlangt eerlijke behandeling van content. Platforms moeten verwijderingen uitleggen. Gebruikers moeten duidelijk bezwaar kunnen aantekenen.

Artikel 17 van de DSA eist dat gebruikers een reden krijgen voor verwijdering. Artikel 20 verlangt een intern klachtensysteem. Artikel 21 geeft gebruikers recht op externe geschillenbeslechting.

De Europese Commissie kan platforms tot zes procent van wereldwijde inkomsten boeten. Meta staat onder direct EU-toezicht.

Reacties van beide zijden

LGBTQ+-groepen begroetten de uitspraak. ILGA-Europe zei dat dit toont hoe automatische moderatie faalt. De groep eiste duidelijkere regels op alle platforms. GLAAD zei dat Meta sneller moet handelen.

Meta zei de uitspraak te accepteren. Een woordvoerder zei dat het bedrijf de aanbevelingen zal bestuderen. Meta merkte op dat het miljoenen posts per week verwijdert. Fouten kunnen gebeuren op die schaal.

Sommige vrijesprekingsgroepen reageerden ook. Ze zeiden dat dit de risico's van strikte regels toont. Ze willen dat platforms minder content verwijderen. Anderen zeiden dat Meta nog te weinig tegen echte haatspraak doet.

Wat gebruikers kunnen doen

Gebruikers die hun content onterecht verwijderd zien, hebben opties. Eerst kan je de beroepknop in de app gebruiken. Meta moet binnen bepaalde tijd reageren.

Als dit faalt, kunnen EU-gebruikers naar een erkend buitengerechtelijk orgaan gaan. Deze staan op de website van de Commissie. Het is gratis of goedkoop voor gebruikers. Besluiten zijn niet bindend, maar hebben gewicht.

Gebruikers kunnen ook een klacht indienen bij hun nationale coördinator. In Nederland is dit de Autoriteit Consument en Markt (ACM). In Duitsland is het de Bundesnetzagentur.

Bredere context

Dit is een van meerdere zaken over LGBTQ+-content. Eerder dit jaar oordeelde het Oversight Board over transgender-posts. Ook daar vond het board Meta's regels onduidelijk. TikTok en YouTube krijgen dezelfde klachten.

Onderzoekers van de Universiteit van Amsterdam bestudeerden tienduizend LGBTQ+-posts in 2024. Veertien procent werd onterecht verwijderd of verborgen. Bij niet-LGBTQ+-content waren fouten zeldzamer.

Toekomst

Meta heeft zestig dagen om op de aanbevelingen te reageren. Het Oversight Board publiceert die reactie. De Europese Commissie volgt de zaak ook. Het kan bevindingen gebruiken in eigen DSA-onderzoeken.

Voor nu geeft de uitspraak een duidelijk signaal. Platforms moeten context in acht nemen. Reclaimed language is geen haatspraak. Hoe goed Meta dit toepast, blijkt in komende maanden.

RR

RainbowNews Redactie

Redacteur

Onderdeel van het redactieteam van RainbowNews.

Meer van deze auteur →

Meer in kennisbank