LeCun (Meta) zet vraagtekens bij ChatGPT (OpenAI), pleit voor world models

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • LeCun (Meta) zet vraagtekens bij ChatGPT (OpenAI), pleit voor world models

Amsterdam, 1 april 2026 14:57 

Yann LeCun, op het moment van schrijven chief AI scientist bij Meta, zet een streep onder de grenzen van taalmodellen zoals ChatGPT. Hij pleit voor zogenoemde wereldmodellen die kunnen plannen, leren van video en handelen in de echte wereld. Daarmee wil Meta stappen zetten naar systemen die echt begrijpen wat ze zien en doen. Dit debat speelt nu wereldwijd en raakt in Europa direct aan de AI‑verordening en de gevolgen voor overheid en bedrijven.

LeCun verlegt de focus

LeCun staat bekend als architect van zelflerende systemen bij Meta. Hij stelt dat grote taalmodellen, zoals ChatGPT van OpenAI, vooral goed zijn in het voorspellen van het volgende woord. Dat helpt bij chat, samenvattingen en code, maar het begrijpt de wereld niet echt. Voor mensachtige intelligentie is meer nodig dan tekst.

De kern van zijn kritiek is dat zulke modellen geen geheugen, doelen en planning hebben. Ze missen “grounding”: de koppeling tussen woorden en wat er in de werkelijkheid gebeurt. Daardoor verzinnen ze soms feiten, ook wel hallucineren genoemd. LeCun ziet een alternatief in modellen die de wereld leren voorspellen en daarop handelen.

Bij Meta krijgt die richting vorm in de JEPA‑familie, zoals I‑JEPA (beeld) en V‑JEPA (video). JEPA staat voor een architectuur die leert voorspellen zonder eerst complete beelden of tekst te hoeven genereren. Het model leert wat waarschijnlijk is in de volgende situatie. Dat moet efficiënter en stabieler redeneren mogelijk maken.

Wat wereldmodellen beogen

Een wereldmodel is een intern datamodel dat leert hoe de omgeving verandert door acties en waarnemingen. Het kijkt niet alleen naar losse zinnen, maar naar oorzaken en gevolgen door de tijd heen. Training op video en interactie staat centraal. Zo kan het systeem vooruitdenken en plannen.

Wereldmodellen bouwen een mentaal schema van “als dit gebeurt, wat volgt dan?”, en gebruiken dat om beslissingen te sturen.

Dat kan nuttig zijn voor robots, logistiek en voertuigen die continu moeten inschatten wat er straks gebeurt. Het kan ook helpen om hallucinaties te beperken, doordat voorspellingen controleerbaar zijn tegen wat de sensoren zien. Voor Europese industrie en mobiliteit is dit aantrekkelijk. Denk aan fabrieken, havens en openbaar vervoer.

Er zijn wel hobbels. Wereldmodellen vragen veel rekenkracht en grote, diverse datasets met video en sensordata. Meten of een model “begrip” heeft, blijft lastig. Veiligheid en foutafhandeling vragen daarom extra ontwerp en testen.

Meta’s route en open aanpak

Meta zet tegelijk in op twee sporen: vandaag bruikbare taalmodellen (Llama 3) en onderzoek naar wereldmodellen (I‑JEPA, V‑JEPA) bij FAIR, het AI‑lab van Meta. Llama 3 is open‑weight beschikbaar, wat ontwikkelaars in Europa laagdrempelige toegang geeft. De JEPA‑lijn moet op termijn leren kijken, plannen en handelen. Samen kunnen ze uitgroeien tot slimmere assistenten en agents.

De open insteek sluit aan bij wat veel Europese bedrijven en overheden vragen: transparantie en aanpasbaarheid. Modellen met open gewichten zijn makkelijker te auditen en lokaal te draaien. Dat helpt bij AVG‑eisen als dataminimalisatie en versleuteling. Documentatie, zoals modelkaarten, wordt zo ook praktischer.

Tegelijk is dit onderzoek werk in uitvoering. Wereldmodellen zitten nog vooral in het lab en komen stapsgewijs naar producten. Tot die tijd blijven taalmodellen nuttig voor taal, zoeken en code. De verwachting is dat combinaties van Llama met wereldmodel‑modules de volgende stap vormen.

Europese AI-verordening gevolgen overheid

De Europese AI‑verordening (AI Act) legt plichten op aan algemene AI‑systemen (GPAI), waaronder modellen zoals Llama en toekomstige wereldmodellen. Denk aan transparantie, evaluaties en, voor zeer krachtige systemen, extra zorgplichten rond systeemrisico’s. Overheden die zulke modellen inkopen moeten kunnen uitleggen hoe ze werken en welke data zijn gebruikt. Dat geldt straks ook als een model video begrijpt en beslissingen stuurt.

Wordt een wereldmodel ingezet in hoog‑risicodomeinen, zoals mobiliteit, gezondheidszorg of onderwijs, dan gelden strengere regels. Dan zijn risicobeoordeling, menselijke controle en duidelijke procedures verplicht. Voor toepassingen in toezicht of openbare orde is de lat nog hoger. Publieke instellingen moeten dit vooraf meenemen in hun aanbestedingen en pilots.

Privacy blijft een sleutelthema onder de AVG. Training op video’s met mensen vraagt een rechtmatige grondslag en dataminimalisatie. Anonimiseren of synthetische data kan helpen, maar moet aantoonbaar effectief zijn. Heldere documentatie van herkomst en kwaliteit van data wordt onmisbaar.

Kansen en hobbels voor Nederland

Nederland heeft sterke onderzoeksgroepen, zoals UvA, TU Delft, ELLIS Amsterdam en ICAI‑labs, en toegang tot rekenfaciliteiten via SURF en EuroHPC. Dat maakt het land geschikt voor tests met wereldmodellen. Samenwerking met sectoren als high‑tech, logistiek en agro kan de stap naar praktijk versnellen. Open‑weight modellen verlagen de drempel voor mkb en start‑ups.

Toepassingen liggen voor de hand in de haven van Rotterdam, geautomatiseerde distributiecentra en precisielandbouw. Wereldmodellen kunnen daar vooruitkijken, risico’s inschatten en energie besparen. In de zorg kunnen ze helpen bij hulpmiddelen die zien, luisteren en veilig handelen. Elke inzet vraagt wel duidelijke mens‑in‑de‑lus en toetsing op bias.

De grootste knelpunten zijn kosten, data en talent. Rekenwerk voor video is duur en vraagt efficiënte training. Goede, AVG‑proof datasets zijn schaars en vragen afspraken met burgers en bedrijven. Standaarden voor evaluatie en veiligheid zijn nodig om snel én verantwoord op te schalen.

LLM’s blijven, rol verandert

Dit alles betekent niet dat taalmodellen verdwijnen. Ze blijven sterk in taal, zoekopdrachten en programmeerhulpen. Hun rol verschuift waarschijnlijk naar een laag in een groter systeem. Wereldmodellen kunnen dan zorgen voor begrip van context, planning en handelen.

In zo’n architectuur praten de lagen met elkaar: taal voor uitleg en instructies, wereldmodellen voor inzicht en actie. Voor Europese bedrijven en overheden kan dat zorgen voor betere prestaties en meer controle. Maar de integratie brengt ook nieuwe verantwoordelijkheden. Evaluatie, logging en foutafhandeling moeten vanaf dag één zijn ingebouwd.

Voor nu is de boodschap nuchter: investeer in praktische toepassingen, maar volg de wereldmodel‑lijn van dichtbij. Zorg dat data‑ en rekeninfrastructuur op orde is. En verbind innovatie aan de eisen van de AI‑verordening en de AVG. Wie dat doet, kan veilig profiteren van de volgende golf in kunstmatige intelligentie.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

OpenAI stopt deze week met Sora, de tool die tekst automatisch omzet in video. Het Amerikaanse bedrijf zegt middelen te

Amazon start deze week met nieuwe waterprojecten die samen jaarlijks meer dan 2 miljard liter extra water moeten opleveren. De

Picsart, een groot creatief platform, heeft deze week zijn aanbod uitgebreid met nieuwe AI-producten voor zogenoemd vibe-ontwerp. De functies moeten

>