Zes jaar na de eerste publicatie van GLAAD's jaarlijkse Social Media Safety Index blijft de conclusie hardnekkig en vernietigend consistent: de grootste socialemediaplatforms ter wereld laten LHBTIQ+ personen in de steek. Maar het rapport van 2026 is niet zomaar meer van hetzelfde — het documenteert een versnelde, opzettelijke afbraak van beschermende maatregelen waardoor onze gemeenschappen meetbaar onveiliger zijn dan een jaar geleden.
Met uitzondering van TikTok zag elk platform dat in het rapport van dit jaar werd beoordeeld zijn score dalen. YouTube kende de sterkste daling, met een verlies van 11 punten naar een score van slechts 30 op 100. De platforms van Meta — Instagram (41), Facebook (40) en Threads (39) — zakten allemaal verder weg. X, in voorgaande jaren al het laagst beoordeelde platform, daalde nog een punt naar 29. TikTok bleef stabiel op 56, het enige platform dat zijn positie niet actief verslechterde — hoewel GLAAD benadrukt dat een score van 56 nog steeds een onvoldoende is.
Beleidswijzigingen Meta zijn geen nalatigheid, maar een vrijbrief voor haat
De meest alarmerende bevindingen dit jaar hebben betrekking op Meta, wiens ingrijpende beleidswijzigingen van begin 2025 door GLAAD worden omschreven als een berekende beslissing om de deur open te zetten voor anti-LHBTIQ+-intimidatie. Het herziene beleid voor haatdragend gedrag van het bedrijf gebruikt nu 'homoseksualiteit' — een klinisch klinkende term die al lang door rechtse groeperingen wordt misbruikt om de identiteit van homo's en lesbiennes te pathologiseren — en 'transgenderisme', een term die is bedacht door anti-transactivisten om het bestaan van trans- en non-binaire personen als een ideologie in te kaderen in plaats van een realiteit.
Concreter gezegd: het bijgewerkte beleid van Meta staat gebruikers nu expliciet toe om LHBTIQ+ personen 'geestesziek' of 'abnormaal' te noemen. Dit is geen onbedoelde omissie. Dit is beleidstaal die intimidatie groen licht geeft.
Deze wijzigingen gaan in tegen het advies van Meta's eigen Oversight Board. Ze vallen ook samen met het schrappen van de programma's voor diversiteit, gelijkwaardigheid en inclusie (DEI), het sluiten van themaruimtes voor trans- en non-binaire personen op Messenger en het beëindigen van zijn Amerikaanse factcheckingprogramma. Zoals GLAAD-voorzitter en CEO Sarah Kate Ellis schrijft in de inleiding van het rapport: "Meta en te veel van zijn branchegenoten hebben hun inzet voor mensenrechten ingeruild voor de openlijke steun aan anti-LHBTIQ+-haat en de actoren die deze verspreiden."
De menselijke impact is al zichtbaar. Uit een enquête uit juni 2025 onder meer dan 7.000 Meta-gebruikers in 86 landen — uitgevoerd door GLAAD, UltraViolet en All Out — bleek dat 92% zich minder beschermd voelt tegen schadelijke content sinds de wijzigingen, 77% zich minder veilig voelt om zich vrij te uiten en 72% schadelijke content in hun feeds heeft gezien. Een anonieme non-binaire trans respondent verwoordde het duidelijk: "Het geweld tegen mij is sinds januari explosief toegenomen. Ik leef dagelijks in angst."
Ook YouTube schrapte stilletjes bescherming voor trans personen
De daling van 11 punten voor YouTube — de sterkste van alle platforms — weerspiegelt een eigen, stille verwijdering: het bedrijf heeft genderidentiteit verwijderd uit de lijst van beschermde kenmerken in zijn haatspraakbeleid. Die beslissing, gedocumenteerd in de SMSI van vorig jaar, is in 2026 nog steeds van kracht. In een politiek klimaat waarin trans personen in tientallen staten te maken hebben met gecoördineerde wetgevingsaanvallen, stuurt het verwijderen van expliciete bescherming een signaal naar kwaadwillenden over wat het platform wel en niet zal handhaven.
De score van YouTube weerspiegelt ook een afname van transparantie in DEI-rapportages en sluit aan bij een bredere trend in de sector. Google, Microsoft en Meta zijn allemaal gestopt met het publiceren van diversiteitsgegevens over hun personeelsbestand — een verschuiving die GLAAD bestempelt als een zorgwekkende uitholling van de verantwoordingsplicht.
De cijfers achter de crisis
De offline gevolgen van online haat zijn niet abstract. GLAAD's ALERT Desk documenteerde in 2025 meer dan 1.000 anti-LHBTIQ+-incidenten in het hele land. Het Institute for Strategic Dialogue registreerde meer dan 97.000 anti-LHBTIQ+-posts van gewelddadige extremistische kanalen in de zes maanden rond de verkiezingen en inauguratie van 2024 alleen al — content die meer dan 3 miljoen interacties ontving. Anti-LHBTIQ+-vooroordelen waren voor het derde achtereenvolgende jaar de motivatie voor meer dan 20% van alle haatmisdrijven die bij de FBI werden gemeld.
Uit een enquête van LGBT Tech uit 2025 bleek dat 68% van de LHBTIQ+-volwassenen online intimidatie heeft meegemaakt, waarbij 45% aangaf dat dit vaak gebeurt. Voor transgender volwassenen zijn die cijfers nog hoger: 90% heeft te maken gehad met online intimidatie en 83% heeft dit in het echt meegemaakt.
Desinformatiecampagnes gericht op trans personen zijn een specifieke zorg. GLAAD documenteert de aanhoudende verspreiding van ontkrachte narratieven — dat trans personen 'gewelddadige terroristen' zijn, dat genderbevestigende zorg 'chemische verminking' is, dat transidentiteit een 'sociale besmetting' is — die zich allemaal verspreiden op sociale media en hun weg vinden naar wetgevers in staten die verboden op gezondheidszorg opstellen.
AI maakt het erger
Het rapport van 2026 luidt ook de noodklok over de rol van AI bij het versterken van anti-LHBTIQ+-schade. Eind 2025 en begin 2026 genereerde Grok van xAI miljoenen deepfake intieme afbeeldingen van vrouwen en kinderen zonder hun toestemming. Een van de meest gruwelijke voorbeelden: een geseksualiseerde, door AI gegenereerde afbeelding van Renee Good, een LHBTIQ+-vrouw die door ICE in Minneapolis werd gedood, die zich binnen 24 uur na haar dood verspreidde. Regeringen in het VK, de EU, India, Frankrijk en Maleisië zijn als reactie hierop onderzoeken gestart of hebben om informatie gevraagd.
GLAAD waarschuwt ook voor een risico op de langere termijn: wanneer platforms nalaten anti-LHBTIQ+-haat te verwijderen, komt die content in de trainingsdata van de volgende generatie AI-modellen terecht — waardoor vooroordelen worden ingebakken in systemen die de online representatie van LHBTIQ+ personen voor de komende jaren zullen vormgeven.
Wat moet er gebeuren
De aanbevelingen van GLAAD voor 2026 zijn helder en urgent. Platforms moeten de bescherming die in recente wijzigingen is afgeschaft, herstellen en handhaven, met speciale aandacht voor transgender en non-binaire personen. Contentmoderators — inclusief degenen die door externe partijen worden ingehuurd — moeten verplichte, LHBTIQ+-specifieke training krijgen. AI moet worden gebruikt om content te markeren voor menselijke beoordeling, niet om geautomatiseerde verwijderingsbeslissingen te nemen. Platforms moeten stoppen met het monitoren van gegevens over seksuele geaardheid en genderidentiteit van gebruikers voor gerichte advertenties. En bedrijven moeten zich opnieuw committeren aan DEI-praktijken en transparante rapportage over personeelsdiversiteit.
De conclusie is simpel: deze platforms hebben de middelen om het beter te doen. Ze kiezen ervoor die niet te gebruiken. En voor LHBTIQ+ personen die zich dagelijks in deze ruimtes begeven, heeft die keuze reële gevolgen.