Een Belgische opiniepublicatie stelt deze week dat populaire generatieve AI “liegt” en “vervalst” door politieke vooringenomenheid bij ontwikkelaars. Het stuk richt zich op systemen als OpenAI’s ChatGPT en Google Gemini, en op de filters die hun antwoorden sturen. Het debat speelt in België en Nederland, waar deze modellen veel worden gebruikt in media, overheid en onderwijs. De vraag is hoe dit zich verhoudt tot de Europese AI-verordening (AI Act) en wat dit betekent voor vertrouwen van gebruikers.
Debat over politieke vooringenomenheid
De kern van de kritiek is dat AI-systemen politieke voorkeuren zouden weerspiegelen van teams die ze trainen en bijsturen. Politieke vooringenomenheid betekent hier: systematisch andere uitkomsten voor vergelijkbare vragen, afhankelijk van het onderwerp of de doelgroep. Verschillende onderzoeken wijzen op meetbare verschillen in toon en advies bij politieke prompts, al verschilt de uitkomst per testmethode en per model. Belangrijk is dat zo’n model geen intentie heeft; het voorspelt woorden op basis van data en regels.
Veel verwarring ontstaat doordat taalmodellen soms zelfverzekerd klinken, ook als hun antwoord niet klopt. Dat wordt vaak verward met “liegen”, terwijl het technisch gaat om een voorspellingsfout. Fabrikanten proberen dat te beperken met veiligheidsregels en extra training. Die ingrepen kunnen echter óók scheef uitpakken.
Een “hallucinatie” is een fout antwoord dat toch overtuigend klinkt, doordat het model taalpatronen volgt in plaats van feiten.
De kritiek raakt daarom twee punten tegelijk: de kwaliteit van feiten en de richting waarin moderatieregels sturen. Voor gebruikers is het verschil niet altijd zichtbaar. Dat voedt de discussie over transparantie en controleerbaarheid.
Voorbeelden uit recente praktijk
Begin 2024 lag Google Gemini onder vuur omdat de beeldgenerator historisch onjuiste of onlogische afbeeldingen maakte bij gevoelige onderwerpen. Google pauzeerde die functie en paste de modellen aan. Het incident liet zien hoe correctie op representatie soms doorschiet en tot nieuwe fouten leidt. Het vergrootte tegelijk de roep om duidelijkere instellingen en uitleg.
Ook chatbots zoals ChatGPT en andere assistenten weigeren regelmatig politieke of actuele vragen, of geven zeer omzichtige antwoorden. Dat gebeurt vanwege veiligheidsregels tegen haat, misleiding of aanzetten tot geweld. Die regels zijn nuttig, maar kunnen ook asymmetrisch uitpakken per onderwerp. Gebruikers ervaren dat als inconsistentie of “sturing”.
Open source-modellen zoals Meta’s Llama bieden meer vrijheid, maar vragen ook meer verantwoordelijkheid van de gebruiker of beheerder. Zonder goede moderatie lopen organisaties risico op schadelijke of misleidende outputs. Dat maakt keuze en configuratie van het model een beleidsbeslissing, niet alleen een technische.
Filters sturen modelgedrag
Modellen worden na training bijgestuurd met zogenaamde veiligheids- of moderatiefilters. Die regels zijn bedoeld om schade te beperken, bijvoorbeeld door het blokkeren van haatdragende taal of medische claims. In de praktijk kunnen ze ook subtiel de toon en inhoud van antwoorden veranderen. Die sturing is vaak onzichtbaar, wat wantrouwen kan versterken.
Bedrijven passen deze filters continu aan op basis van klachten, tests en wettelijke eisen. Een kleine wijziging in een “systeemprompt” kan merkbare effecten hebben op het eindresultaat. Zonder openbaar testkader is het lastig te beoordelen of aanpassingen onevenwichtig uitpakken. Dat pleit voor onafhankelijke audits met representatieve, ook politieke, testsets.
Transparantie over wat een model niet doet, is net zo belangrijk als wat het wel doet. Denk aan blokkeerlijsten, risicovolle onderwerpen en beperkingen per land. Heldere documentatie helpt gebruikers om resultaten te duiden en fouten sneller te melden.
EU-regels vragen openheid
De Europese AI-verordening verplicht aanbieders van algemene AI-systemen tot meer transparantie. Fabrikanten moeten op het moment van schrijven onder meer samenvattingen van trainingsdata geven, veiligheidsrisico’s testen en die risico’s blijven monitoren. Voor zeer krachtige modellen gelden extra plichten, zoals incidentmelding en onafhankelijke evaluaties. Dat moet politieke of andere vooringenomenheid beter zichtbaar en corrigeerbaar maken.
Deepfakes en synthetische media moeten duidelijk herkenbaar zijn, bijvoorbeeld via watermerken of “content credentials”. Dat is relevant voor verkiezingen en publieke communicatie. Voor overheden en publieke diensten in Nederland en België betekent dit: documenteer het gebruik van AI en voorkom misleiding. De AVG blijft bovendien eisen stellen aan dataminimalisatie en beveiliging bij het verwerken van persoonlijke gegevens.
Platformregels zoals de Europese Digital Services Act vullen dit aan met transparantie-eisen voor aanbevelingssystemen. Samen moet dit ecosysteem misinformatie en manipulatie beperken. Maar de uitvoering staat of valt met auditbare processen en onafhankelijke toetsing.
Aanpak voor organisaties
Instellingen die ChatGPT, Gemini of Llama inzetten, kunnen nu al drie dingen doen. Eén: instelbare moderatie en uitlegteksten voor gebruikers, zodat beperkingen helder zijn. Twee: periodiek testen met diverse, ook politieke, scenario’s en die resultaten publiceren. Drie: een feedbackkanaal inrichten en opvallende afwijkingen snel hertrainen of herconfigureren.
Voor publieke organisaties is extra zorg nodig. Leg beslissingen niet alleen bij het model, maar bouw menselijke controle in. Maak een register met gebruikte systemen, doelen en datasets, en voeg evaluaties toe. Dat past bij de AI Act en helpt bij verantwoording richting burgers.
Voor mediabedrijven en scholen geldt: label AI-gegenereerde content en bewaar bronprompts waar mogelijk. Gebruik waar passend C2PA-content credentials om herkomst van beelden en audio te tonen. Zo groeit vertrouwen en worden discussies over “vervalsing” minder persoonlijk en meer toetsbaar.
Consequenties voor vertrouwen
Het debat draait uiteindelijk om betrouwbaarheid en keuzevrijheid. Gebruikers willen weten waar een systeem streng is, waar het kan afwijken en hoe zij dat kunnen bijsturen. Heldere instellingen, zoals een “strikte” en een “onbewerkte” modus met uitleg, helpen daarbij. Publieke benchmarks maken vergelijkingen tussen modellen eerlijker.
Voor ontwikkelaars betekent dit: documenteer ontwerpkeuzes, ook als die gevoelig liggen. Beschrijf bijvoorbeeld hoe politieke of maatschappelijke onderwerpen worden behandeld. Dat maakt kritiek controleerbaar en discussies feitenrijker. En het sluit aan op de Europese roep om transparante en veilige AI.
De huidige ophef is dus niet alleen cultureel, maar ook technisch en juridisch. Met open documentatie, betere tests en naleving van de AI Act kan het gesprek verschuiven van verwijten naar verbeteringen. Dat is in het belang van ontwikkelaars, gebruikers en toezichthouders in heel Europa.
