De Nederlandse democratie wordt niet ondermijnd door één virale video of één haatpost, maar door de constante stroom van borderline content: materiaal dat net onder de juridische drempel blijft, maar systemisch vergiftigt. Wetgeving en toezicht lopen hier nog achter de feiten aan. De inzet van Nederland moet scherper, Europees verankerd, en publiek uitlegbaar worden: nu.

Transparantie van moderatie

Vraag: waarom verplicht de DSA wel risicobeoordelingen, maar geen specifieke transparantie over de moderatie van borderline terroristische/gewelddadige content: en wat doet Nederland eraan?

Antwoord: dit is het hiaat. De meest recente academische analyse stelt expliciet dat wetgeving zoals de DSA transparantie over de moderatie van borderline TVEC (terrorist & violent extremist content) niet direct voorschrijft. Daardoor rapporteren platforms vooral over verwijderingen van illegale content, niet over demotie, frictie of contextaanpassingen in de grijze zone.

Wat Nederland moet eisen in Brussel (concreet):

  • Een bindende transparantiestandaard voor borderline-moderatie bij VLOP’s/VLOSE’s: rapportage over downranking, labelingsnelheid, cross-platform doorplaatsing, en recidive van accounts/netwerken. Koppel dit aan de Preparedness Union-logica van “preparedness by design”, zodat moderatiemaatregelen ook crisisbestendig worden.

  • Stress-tests van recommender-systemen als onderdeel van de DSA-risicobeoordeling, met openbaar gemaakte samenvattingen voor de grijze zone (zonder bedrijfsgeheimen). Dit sluit aan op de EU-actieplannen voor vroegtijdige waarschuwing, het crisisdashboard (2025) en de Europese risico- en dreigingsbeoordeling (2026).

Rol van platforms bij escalatie

Vraag: hoe te duiden dat platforms moderatieregels versoepelen en fact-checkprogramma’s schrappen, terwijl diensten al jaren waarschuwen?

Antwoord: dit is een bewuste beleidskeuze die het risico op escalatie vergroot. In 2025 maakte Meta een U-bocht: fact-checkers overboord, meer “gebruikersgestuurde” moderatie—een Musk-achtige koers die meer onbemiddelde politieke content doorlaat. Dat gaat frontaal in tegen Europese lessen over systeemrisico’s.
Tegelijk tonen recente casuïstiek hoe algoritmes jongeren de diepte in trekken: TikTok functioneerde als low-threshold gateway in een nieuwe radicaliseringsgolf onder Europese tieners, waarbij een “victimhood-revenge” narratief online werd versterkt en offline tot (verijdelde én uitgevoerde) geweldsincidenten leidde.
De AIVD waarschuwde bovendien dat minderjarigen sinds 2023 vaker een terroristische dreiging vormen; online cultuur en algoritmiek zijn daarin cruciaal.

Stelling: wie “ontziet” in de grijze zone, normaliseert stochastische effecten: een hogere kans op onvoorspelbare, maar voorspelbaar waarschijnlijke uitbarstingen van geweld.

Nationale weerbaarheid

Vraag: welke instrumenten hebben webcare- en crisiscommunicatieteams om borderline content vroegtijdig te signaleren en te duiden?

Antwoord (4 direct inzetbare tools):

  1. Borderline Radar NL: een gezamenlijke taxonomie (met AIVD/NCTV-conforme labels) voor borderline narratieven, gevoed door publiek-toegankelijke signalen, met drempelwaarden voor “surge alerts” die aan crisiscoördinatie doorzetten. Verbind dit aan het nationale hybride dreigingsbeeld.

  2. Recommender Red-Teaming: simuleer publieksprofielen en meet “rabbit holes” rond TVEC-borderline; deel inzichten via het EU-crisisdashboard en trainingen.

  3. Civic Friction Pack: kant-en-klare prebunks, explainers en cool-down interventies die webcare in minuten kan inzetten wanneer narratieven “tikken”—gericht op jongeren, ouders en docenten. Sluit aan op AIVD-bevindingen over minderjarigen.

  4. ELSA-Lab Sprints: kortcyclische, waardengedreven experimenten met gemeenten/onderwijs/platforms om interventies uitlegbaar en rechtenproof te houden (SRL/Pathways to Impact).

Dit past in de Weerbaarheidsopgave: weerbaarheid is geen project, maar een permanente capaciteit tegen hybride dreigingen.

Verantwoordelijkheid en toezicht

Vraag: moet de ACM als Digital Services Coordinator ruimere bevoegdheden krijgen voor toezicht op systemisch schadelijke borderline content?

Antwoord: ja. De maatschappelijke schade van de grijze zone is reëel, ook zonder direct strafbaar te zijn, en raakt publieke waarden en democratische processen. Het toezicht moet daarom niet stoppen bij illegaal vs. legaal, maar expliciet systeemrisico’s in de grijze zone adresseren—met sancteerbare duty of care-achtige eisen aan transparantie en mitigatie. De onderbouwing ligt er: hybride dreigingen, jeugdradicalisering, en platform-policy-rollback vormen één risicocluster.
Concreet: geef de ACM het mandaat om (a) borderline-transparantie-rapportages af te dwingen, (b) audits/stress-tests op recommender-systemen te laten uitvoeren, en (c) noodmaatregelen te eisen bij surges, met escalatie naar het Europese niveau bij structurele non-compliance. Dit sluit aan bij de publieke opdracht tot weerbaarheid.

Europese samenwerking

Vraag: hoe pakt Nederland binnen de EU Preparedness Union grensoverschrijdende borderline content als hybride dreiging structureel aan?

Antwoord: behandel borderline content expliciet als onderdeel van FIMI/hybride dreigingen binnen de Preparedness Union. Dat betekent:

  • Opnemen van indicatoren voor borderline-surges in de EU-brede risico- en dreigingsbeoordeling (2026), met koppeling aan het crisisdashboard (2025) en het versterkte ERCC voor snelle informatie-uitwisseling.

  • Gebruikmaken van de all-hazards, whole-of-society aanpak om publieke, private en civiele partners te laten meedraaien in oefenprogramma’s en de EU-trainingscatalogus/lessons-learned-platform.

  • Aansluiten bij de Nederlandse kabinetskoers om EU-paraatheid en weerbaarheid te versterken (Niinistö-kader); zet in de JBZ-Raad en ER-formaties in op een Europees protocol voor borderline-moderatie-transparantie.

Tip

van Sander:

Wie vandaag transparantie en toezicht in de grijze zone omzeilt, betaalt morgen in paraatheid. De oplossing is bekend: uitlegbaarheid als norm, transparantie-by-design voor borderline-moderatie, nationaal red-teamen, en Europese preparedness die online dynamiek net zo serieus neemt als overstromingen of cyberaanvallen. Alles minder is schijnzekerheid.

Bronnen o.a.: Internet Policy Review (2025) over borderline-moderatie-transparantie; CTC Sentinel (2025) over TikTok en jeugdradicalisering; AIVD (2025) “Een web van haat”; EU Preparedness Union Strategy (2025); NL-stukken over (hybride) weerbaarheid en Niinistö-koers; RISJ (2025); verslaggeving over Meta’s policy-U-turn.