Wat Meta’s Behemoth AI ons leert over vertrouwen, richting en digitale verantwoordelijkheid

Begin deze maand nam ik afscheid van Instagram. Niet uit nostalgie, maar uit zorg voor publieke waarden.
Nu, een paar weken later blijkt waarom dat afscheid geen incident was, maar een voorbode.

De AI-reuzen struikelen

En dat is niet per se slecht nieuws.

Meta heeft de uitrol van haar vlaggenschipmodel Behemoth uitgesteld.
Interne twijfel. Vertraging. Modellen die minder presteren dan beloofd.
Benchmark-resultaten die mooier waren dan de werkelijkheid.

Wat opvalt: de ambitie is groot,
het tempo is agressief,
maar de technologie hapert.
En het vertrouwen ook.

En dat is precies waarom dit uitstel belangrijk is.
Niet als drama.
Maar als signaal.

Wat zegt het?

Dat schaal alleen niet genoeg is.
Dat snelheid niet hetzelfde is als richting.
Dat rekenkracht zonder waarden uiteindelijk vastloopt.

Meta’s AI-model Behemoth is gebouwd op miljarden regels tekst,
verzameld over de hele wereld.
Openbaar, semi-openbaar, vaak zonder toestemming.

Het moest de volgende grote sprong worden.
Maar de sprong stokt.
Omdat zelfs machines grenzen kennen.
En misschien –heel misschien- ook mensen.

Wat laat het zien?

Dat technologie zonder publieke rekenschap steeds vaker tegen haar eigen schaduw aanloopt.
Dat vertrouwen niet voortkomt uit indrukwekkende prestaties,
maar uit uitlegbaarheid, verantwoordelijkheid en rechtvaardigheid.

En vooral: dat er ruimte ontstaat voor alternatieven.
Voor langzamere, betrouwbaardere, mensgerichtere AI.
Voor architecturen zoals die van Apple,
waarin on-device intelligence geen grondstoffen rooft,
maar gebruikers respecteert.

Wat staat er op het spel?

Niet alleen welk systeem slimmer is.
Maar welk systeem we vertrouwen.
Welke infrastructuur we bekrachtigen.
Welke waarden we verankeren in onze tools, apps, keuzes.

Meta’s model heet niet voor niets Behemoth.
Het is groots, zwaar, hongerig.

Maar soms heeft de samenleving iets anders nodig:
Een baken. Geen bulldozer.
Een gids. Geen gok.

De datastrategie van Meta’s AI Behemoth: impliciet, ondoorzichtig, grootschalig

Vanaf mei 2025 gebruikt Metazonder opt-in – alle openbare content van Instagram-gebruikers voor modeltraining.
Posts, reacties, beelden, bijschriften.
Ook al zijn ze jaren oud.
Ook al weet je het niet.

Bezwaar maken is moeilijk.
Data die al is gebruikt, blijft.
Wat ooit gedeeld is, is in zekere zin voorgoed ingevoegd.

De infrastructuur die wij gebruikten om te communiceren,
bleek ook een extractiemachine voor AI.
Niet als optie. Maar als standaard.

Het contrast met Apple

Apple publiceerde een paper over on-device AI,
waarbij synthetische data lokaal wordt vergeleken met gebruikersdata —
zonder dat deze ooit het toestel verlaat.

Er wordt geen inhoud gedeeld. Alleen verstoorde signaalwaarden.
Differential privacy als systeem, geen laagje.

Apple’s aanpak toont: het kán dus anders.
Uitlegbaar. Begrensd. Toestemming-gebaseerd.
Niet uit liefdadigheid, maar uit ontwerpfilosofie.

Autonomie is geen bijvangst. Het is het uitgangspunt.

Waarom ik dit deel

Omdat de AI-race ons niet alleen dwingt te kiezen wat werkt,
maar vooral: voor wie het moet werken. En waarom.

Mijn grens bij Instagram was geen technofobie.
Maar loyaliteit aan publieke waarden.
Aan toestemming. Zeggenschap. Menselijkheid.

Meta’s uitstel is een moment van pauze.
Misschien zelfs een kans.
Om niet harder te gaan. Maar beter.

Wat als de toekomst niet bepaald wordt door wie het snelst traint,
maar door wie het zuiverst durft te bouwen?

Richting is geen bijzaak.
Het is het verschil tussen winnen en waardig blijven.

Tip

van Sander:

AI zonder waarden is als infrastructuur zonder richting.
Wie publieke communicatie toevertrouwt aan platformen met extractielogica,
moet weten wat hij inlevert.
Zichtbaarheid?
Of zeggenschap?

📎 Verdieping & verbinding