Google: één op tien AI-antwoorden fout — honderdduizenden per minuut

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Google: één op tien AI-antwoorden fout — honderdduizenden per minuut

Amsterdam, 8 april 2026 15:43 

Google toont sinds kort AI-samenvattingen bovenaan zoekresultaten via AI Overviews, aangestuurd door het Gemini-model. Nieuwe analyses melden dat ongeveer één op de tien antwoorden een fout bevat, op het moment van schrijven. Door het enorme zoekvolume gaat het dan om naar schatting honderden duizenden missers per minuut. Dat zet druk op Google om snel bij te sturen en roept in Europa vragen op over toezicht onder de AI-verordening en de Digital Services Act.

AI Overviews missen vaak

AI Overviews is een functie die met generatieve AI korte antwoorden maakt uit webbronnen. Het systeem gebruikt Gemini, het nieuwste taalmodel van Google, om informatie samen te vatten. Dat levert snelheid op, maar ook zichtbare missers in feitelijke claims en praktische adviezen. Het probleem speelt wereldwijd en is ook in Europese zoekresultaten te zien.

Meerdere metingen schatten het foutpercentage rond één op tien antwoorden, afhankelijk van testset en methode. Bij het huidige zoekvolume kan dat optellen tot honderden duizenden onjuiste zinnen per minuut. Het gaat vaak om kleine onnauwkeurigheden, maar soms ook om onlogische of ronduit gevaarlijke tips. Dat vergroot het risico op misinformatie in alledaags online zoeken.

“Ongeveer één op de tien AI-antwoorden bevat een fout.”

In AI-onderzoek heet dit een hallucinatie: een model genereert een bewering die er overtuigend uitziet, maar niet klopt. Zulke fouten ontstaan als het systeem patronen volgt zonder de onderliggende feiten te begrijpen. De samenvattingen kunnen bovendien de nuance uit bronartikelen verliezen. Daardoor krijgen gebruikers soms stellige, maar onvolledige antwoorden.

Oorzaken van de fouten

AI Overviews bouwt op retrieval-augmented generation: het model haalt webpagina’s op en vat ze samen. Als de opgehaalde bronnen zwak of tegenstrijdig zijn, vergroot dat de kans op onjuistheden. Ook kunnen grappen, satire of oude forumberichten als serieuze input eindigen in de samenvatting. Dit soort bronruis is lastig volledig te filteren op schaal.

Daarnaast heeft het model moeite met randgevallen en dubbelzinnige vragen. Een generatief systeem is ontworpen om altijd iets te antwoorden, ook als het beter is om te zwijgen. Bij onderwerpen als gezondheid, financiën of recht weegt dat extra zwaar. Fouten in die domeinen hebben directe gevolgen voor consumenten.

Ten slotte spelen aanvallen via “prompt-injectie” en SEO-manipulatie mee. Kwaadwillenden kunnen webteksten zo schrijven dat ze AI-systemen misleiden. Dat is een bekend risico bij systemen die open webbronnen samenvatten. Zonder strikte bronselectie en extra controle blijven deze gaten bestaan.

Europese regels en toezicht

De Europese AI-verordening (AI Act) legt voor generieke AI-modellen, zoals Gemini, transparantie- en zorgplicht op. Leveranciers moeten onder meer technische documentatie en risicobeperking tonen, op het moment van schrijven. Dat dwingt tot betere evaluaties en duidelijke informatie over beperkingen. Accuratesse valt niet direct te “regelen”, maar systemische risicobeheersing wel.

Daarnaast valt Google Search als zeer groot online platform onder de Digital Services Act (DSA). De DSA eist risicobeoordelingen en maatregelen tegen verspreiding van misinformatie via aanbevelingssystemen. AI Overviews beïnvloedt wat gebruikers zien, en raakt dus die verplichtingen. De Europese Commissie kan hiervoor handhaven, met boetes bij tekortkomingen.

In Nederland en België gelden ook regels tegen misleidende handelspraktijken. Als AI-antwoorden consumenten op het verkeerde been zetten, kan dat tot klachten en toezicht leiden. Autoriteiten zoals de ACM en hun Belgische tegenhangers kunnen ingrijpen bij structurele problemen. Dit vergroot de druk op Google om aantoonbaar veilige en betrouwbare uitrol te laten zien.

Impact voor Nederlanders en Belgen

Gebruikers zoeken vaak naar zorg, belastingen of overheidsdiensten. Onjuiste AI-samenvattingen kunnen hier direct schade doen. Denk aan foutieve informatie over DigiD, toeslagen of reisadviezen. Publieke instellingen zullen hun webteksten scherper moeten optimaliseren, zodat betrouwbare bronnen beter doorkomen.

Voor scholen en universiteiten betekent dit extra aandacht voor mediawijsheid. Studenten moeten leren hoe generatieve systemen werken en waar ze misgaan. Controleer altijd de bron achter een AI-samenvatting. Klik door naar officiële websites voor beleid, wetgeving en gezondheidsinformatie.

Uitgevers en nieuwsmedia blijven intussen afhankelijk van verkeer uit Google. AI-samenvattingen kunnen klikken wegnemen of juist stimuleren, afhankelijk van hoe prominent bronnen worden getoond. Europese auteursrechten en naburige rechten geven uitgevers middelen om hergebruik te sturen. Duidelijke bronvermelding en linkbeleid zijn hier cruciaal.

Google belooft verbeteringen

Google zegt extra waarborgen te plaatsen rond gevoelige onderwerpen. Het bedrijf beperkt AI Overviews bij vragen die historisch veel fouten opleveren. Ook worden bronnen strenger gefilterd op autoriteit en actualiteit. Regionale uitrol in Europa is daardoor voorzichtiger en stapsgewijs.

Technisch werkt Google aan betere detectie van satire, lage kwaliteit en manipulatiepogingen. Het bedrijf kan daarnaast de weergave van bronnen uitbreiden en het model dwingen tot “ik weet het niet” bij twijfel. Zulke interventies verminderen het aantal hallucinaties. Ze lossen het probleem niet volledig op, maar drukken het risico.

Transparantie wordt belangrijker door Europese regels. Publieke rapportages over foutpercentages en testmethoden helpen gebruikers en toezichthouders. Het maakt ook vergelijking met alternatieven mogelijk, zoals Perplexity, Microsoft Copilot of gewone zoekresultaten. Dat bevordert een eerlijker debat over nut en risico’s.

Praktische tips voor zoeken

Controleer altijd de bronlinks onder een AI-samenvatting. Klik door naar minstens twee onafhankelijke, gezaghebbende websites. Voor beleid, wet en zorg: gebruik bij voorkeur officiële .gov, .nl, .be of .eu-domeinen. Vergelijk informatie en let op publicatiedatum.

Formuleer je vraag concreet en voeg sleutelwoorden toe als “officiële site”, “Rijksoverheid”, “Belastingdienst” of “EU”. Dat verkleint de kans op ruis in het antwoord. Zie je een opvallende claim, zoek dezelfde bewering nog eens zonder AI Overviews. Klassieke zoekresultaten geven vaak meer context.

Rapporteer onjuiste antwoorden via de feedbackknop bij de samenvatting. Hoe meer voorbeelden, hoe sneller modellen verbeteren. Tot die tijd: gebruik AI-antwoordvakken als startpunt, niet als eindpunt. Zeker bij beslissingen met financiële, juridische of medische gevolgen.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

In Vietnam zetten coöperaties nu in op een digitale versnelling van landbouw en lokale handel. Zij bundelen leden, data en

Anthropic, de Amerikaanse maker van de AI-assistent Claude, zet in op stevige overheidscontrole op zeer krachtige algoritmen. Het bedrijf bepleit

Marvell Technology heeft nieuwe chips gepresenteerd die de prestaties van AI-datacenters moeten verhogen. Het bedrijf richt zich op snellere verbindingen

>