Valse citaten bij De Sutter en Torfs: discussie over ChatGPT (OpenAI)

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Valse citaten bij De Sutter en Torfs: discussie over ChatGPT (OpenAI)

Amsterdam, 13 maart 2026 16:14 

In België heeft hoogleraar en columnist Rik Torfs toegegeven dat hij onbestaande citaten gebruikte in recente publieke uitlatingen. Hij zegt dat hij te veel op zijn geheugen vertrouwde en bood excuses aan. Het incident volgt op eerdere kritiek op vicepremier Petra De Sutter om gelijkaardige misquotes. Deze discussie raakt ook aan AI, digitale hulpmiddelen en de Europese AI-verordening gevolgen overheid en media.

Geheugen leidde tot misquotes

Rik Torfs erkende dat hij citaten gebruikte die bij controle niet bleken te bestaan. Hij verklaarde dat hij zijn geheugen overschatte bij het citeren. Daarmee trekt hij de verantwoordelijkheid naar zich toe. Hij kondigde een correctie aan en zei lessen te trekken uit de zaak.

De kern van het probleem is eenvoudig: een sterk geheugen is geen bron. Zeker bij scherpe statements of historische uitspraken is verificatie nodig. Een exacte bron, zoals een boek, artikel of opname, hoort erbij. Zonder die stap kan een misquote snel ontstaan.

De reputatieschade reikt verder dan één persoon. Het publiek verwacht precisie van wetenschappers en politici. Onjuiste citaten ondermijnen dat vertrouwen. Dat effect wordt groter in online debatten.

De correctie kwam snel, maar de verspreiding was sneller. Citaten reizen vlot op sociale media en in nieuwsbrieven. Een fout is dus moeilijk terug te draaien. Dat vergroot het belang van zichtbare rectificaties.

“Ik vertrouwde te veel op mijn geheugen.”

Eerder incident De Sutter

Recent kwam ook vicepremier Petra De Sutter in opspraak door niet-bestaande citaten. Zij moest haar uitspraken aanpassen na kritiek. De gevallen lijken op elkaar: de broncontrole schoot tekort. Beide affaires leidden tot publieke discussie over zorgvuldigheid.

De gelijkenis is niet toevallig. In het snelle mediatempo is de verleiding groot om op geheugen of tweedehandsbronnen te vertrouwen. Dat is risicovol bij citaten die precies moeten kloppen. Een kleine fout kan grote impact hebben.

In België is die impact direct zichtbaar in politiek en media. Correcties worden breed opgepikt. De publieke verwachting is helder: zeg wat controleerbaar is. En herstel zichtbare fouten snel en volledig.

De vergelijking tussen beide incidenten maakt de structurele les duidelijk. Het probleem is niet één persoon, maar het proces. Bronvermelding hoort standaard bij elk citaat. Dat geldt in de pers, de politiek en de academie.

AI vergroot misquote risico

Teksthulp van generatieve AI, zoals ChatGPT (OpenAI) en Gemini (Google), wordt veel gebruikt om ideeën te ordenen of conceptteksten te maken. Deze systemen voorspellen woorden op basis van patronen in data. Ze kunnen daarbij “hallucineren”: overtuigend klinkende maar verzonnen details. Dat geldt ook voor citaten en verwijzingen.

AI-uitvoer is geen bron, maar een startpunt. Wie een door AI voorgesteld citaat wil gebruiken, moet de primaire herkomst vinden. Denk aan het boek, de speech of het interview met paginanummer en datum. Zonder die check blijft het risico op een misquote groot.

De Europese AI-verordening (AI Act) legt voor algemene AI-modellen transparantieplichten op. Dat helpt gebruikers beter te begrijpen wat een systeem wel en niet kan. Maar eindgebruikers blijven verantwoordelijk voor inhoudelijke controle. Vooral bij gevoelige claims of autoriteitsargumenten is menselijk toezicht nodig.

Ook redacties en communicatieafdelingen passen hiervoor richtlijnen toe. Ze beperken AI tot ondersteunende taken en eisen bronvermelding bij citaten. Interne checks en een vier-ogenprincipe verkleinen fouten. Zo blijft de menselijke eindredactie leidend.

AI-verordening vraagt transparantie

De AI Act wordt in de EU stapsgewijs ingevoerd, op het moment van schrijven nog in uitvoering. De wet verplicht transparantie over de werking en beperkingen van AI-systemen. Dat is relevant voor publieke communicatie door overheid en media. Duidelijkheid over AI-gebruik helpt verwachtingen te managen.

Voor overheden zijn de gevolgen concreet. Zij moeten risico’s rond desinformatie en betrouwbaarheid in kaart brengen. Ook dataminimalisatie en zorgvuldige documentatie horen daarbij. Dit sluit aan bij bestaande regels zoals de AVG.

Mediahuizen profiteren ook van heldere regels. Inzicht in herkomst, bewerking en bronkwaliteit wordt standaard. Daarmee stijgt de drempel voor ongecontroleerde citaten. En neemt het belang van traceerbaarheid toe.

Transparantie werkt twee kanten op. AI-aanbieders moeten uitleggen wat hun modellen doen. Gebruikers moeten uitleggen hoe ze die inzetten. Zo ontstaat een controleerbare keten van verantwoordelijkheid.

Platformen moeten ingrijpen

Grote platforms zoals X, Facebook en YouTube vallen onder de Europese Digital Services Act (DSA). Ze moeten systemische risico’s, zoals verspreiding van misinformatie, aanpakken. Dat kan via minder bereik voor misleidende posts en betere contextlabels. Ook moeten ze meer openheid geven aan onderzoekers.

Factchecking en context zijn daarbij sleutelmaatregelen. Community Notes op X en onafhankelijke factcheckers helpen fouten snel te duiden. Toch blijft preventie belangrijker dan correctie. Een misquote voorkomen is effectiever dan achteraf herstellen.

Publieke figuren dragen extra verantwoordelijkheid. Zij kunnen zichtbare updates plaatsen, zoals een vaste rectificatielink. Zo vinden lezers de correctie even makkelijk als de fout. Dat verkleint blijvende schade.

Voor nieuwsmedia gelden vergelijkbare principes. Snelle updates, duidelijke bronvermelding en blijvende archiefnotities zijn nodig. Daarmee blijft de nieuwswaarde intact zonder het publiek te misleiden. Transparantie wordt onderdeel van de dienstverlening.

Lessen voor schrijvers en lezers

Controleer elk citaat bij de bron. Zoek de eerste publicatie, met datum en context. Vermijd quotes die nergens volledig terug te vinden zijn. Twijfel? Dan niet gebruiken.

Gebruik AI-systemen als hulpmiddel, niet als autoriteit. Vraag om bronnen en controleer die handmatig. Wees extra kritisch bij snedige oneliners en historische uitspraken. Let op hallucinaties en foutieve bronverwijzingen.

Redacties en instellingen kunnen processen aanscherpen. Leg vast wanneer AI wel en niet is toegestaan. Eis altijd een werkende bronvermelding bij citaten. En voer een verplichte eindcontrole in door een tweede lezer.

De zaak rond Torfs en De Sutter toont een breed risico. In snelle media-ecosystemen verspreiden misquotes zich razendsnel. Zorgvuldigheid, transparantie en goede regels helpen dat te beperken. Zo blijft het publieke debat feitelijk en controleerbaar.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

>