Een nieuw onderzoek laat zien dat grote taalmodellen vaak onbetrouwbare antwoorden geven op nieuwsvragen. Geteste systemen zoals ChatGPT (OpenAI), Google Gemini en Microsoft Copilot gaven geregeld foute of verzonnen informatie. De analyse keek naar Nederlandstalige en internationale vragen in een online omgeving. Dit is belangrijk voor de Europese AI-verordening en de gevolgen voor overheid en media, omdat veel mensen deze tools als snelle nieuwsbron gebruiken.
Antwoorden vaak onjuist
De onderzoekers stelden actuele vragen over politiek, economie en maatschappelijke gebeurtenissen. ChatGPT, Gemini en Copilot produceerden regelmatig antwoorden met feitelijke missers of verouderde context. Ook klonken de antwoorden vaak heel zeker, terwijl er twijfel op zijn plaats was. Dat vergroot de kans dat lezers verkeerde informatie overnemen.
De fouten liepen uiteen van verkeerde cijfers tot verwisselde namen en functies. Ook werden gebeurtenissen soms aan het verkeerde jaar gekoppeld. Bij dynamische onderwerpen, zoals kabinetswissels of nieuwe Wetgevingsplannen, bleken de modellen vaak niet up-to-date. Daardoor ontstaat een scheef beeld van wat er nu speelt.
Bronvermelding bleek een zwak punt in de test. De systemen gaven vaak geen duidelijke bron of link, of verwezen naar paginaās die niet bestonden. Ze kozen zelden voor āik weet het nietā bij twijfel. Voor nieuwsconsumptie is dat problematisch, omdat controleerbare bronnen essentieel zijn.
Hallucinatie is wanneer een AI overtuigend antwoordt met onjuiste of verzonnen feiten, zonder betrouwbare bron.
Nederlands levert meer fouten
De prestaties in het Nederlands waren minder stabiel dan in het Engels. Dat komt waarschijnlijk door minder trainingsdata en minder voorbeelden van recente Nederlandstalige berichtgeving. Namen van partijen, bewindspersonen en lokale dossiers werden vaker door elkaar gehaald. Ook nuance in beleidsvoorstellen raakte sneller verloren.
Bij onderwerpen als de stikstofaanpak, toeslagenaffaire en Europese verkiezingen traden extra fouten op. Modellen beschreven standpunten te algemeen of verwisselden maatregelen en tijdlijnen. Daardoor lijken partijen het eens of oneens over zaken die anders liggen. Voor de lezer is het lastig om dat zonder broncontrole te zien.
Voor Nederlandse nieuwsredacties en factcheckers is dit een waarschuwing. AI kan helpen bij research, maar niet zonder menselijke eindredactie. Publiceren zonder verificatie brengt reputatierisicoās mee. Ook voor burgers geldt: gebruik AI als startpunt, niet als eindbron.
Zoekmachines versterken risico
Microsoft Copilot en Google Gemini zijn geĆÆntegreerd in zoekomgevingen. Hun antwoorden verschijnen tussen gewone zoekresultaten en lijken daardoor snel gezaghebbend. Als zoān antwoord een fout bevat, kan die zich snel verspreiden. Dat effect is extra groot bij brekend nieuws.
In de EU vallen deze diensten onder streng toezicht. Grote platforms hebben onder de Digital Services Act een plicht om de verspreiding van desinformatie te beperken. De Europese AI-verordening (AI Act) stelt op het moment van schrijven transparantie-eisen aan algemene AI-systemen, zoals documentatie en duidelijkheid over trainingsdata en beperkingen. Diensten die nieuws samenvatten zullen moeten tonen wat de bron is en wanneer informatie is bijgewerkt.
Voor Nederlandse overheden en publieke instellingen zijn er praktische gevolgen. Inkopen van AI-diensten vraagt om eisen aan bronvermelding, logging en menselijk toezicht. Dit sluit aan bij de AVG, die dataminimalisatie en verantwoording vereist. Zonder deze waarborgen is gebruik in publieke dienstverlening risicovol.
Gebruik met bronkritiek
Wie AI gebruikt voor nieuws, kan enkele simpele stappen volgen. Vraag altijd om concrete bronnen met werkende links en een datum. Controleer cruciale claims bij meerdere, betrouwbare media. Let op tijdsaanduidingen, want actualiteit verandert snel.
Wees extra voorzichtig bij cijfers, citaten en juridische of medische kwesties. Vraag de AI om onzekerheden en alternatieve interpretaties te tonen. Zet waar mogelijk āwebā of ācitatiesā aan, zodat links zichtbaar zijn. Breek een vraag op in deelvragen om fouten makkelijker te spotten.
In onderwijs en overheid horen basisregels bij AI-gebruik. Geen automatische publicatie zonder menselijke controle. Noteer wanneer AI is gebruikt en welke bronnen de uitkomst dragen. Zo blijft de herkomst van informatie transparant en toetsbaar.
Verbeteringen voor aanbieders
Leveranciers kunnen de betrouwbaarheid technisch verhogen. Koppel antwoorden aan actuele nieuwsbronnen en toon zichtbare bronlijsten met datum en titel. Geef gebruikers standaard de mogelijkheid om bronnen te openen en te beoordelen. Laat het systeem antwoorden overslaan wanneer de zekerheid laag is.
Ook is betere evaluatie nodig, specifiek voor het Nederlands. Publiceer meetsets met actuele Nederlandstalige nieuwsvragen en deel de scores. Werk samen met Europese redacties en factcheckorganisaties voor onafhankelijke tests. Dit helpt om blinde vlekken sneller te vinden.
Tot slot is heldere communicatie essentieel. Leg uit wat het model wel en niet weet en hoe vaak het fouten maakt. Maak incidentrapporten publiek en update veiligheidsmaatregelen zichtbaar. Dat sluit aan bij de AI-verordening en geeft gebruikers realistische verwachtingen.
