Een programmeur liet zijn DNA-uitslagen recent duiden door een generatieve AI‑chatbot. Het systeem concludeerde dat “bonen gevaarlijk zijn”, wat direct voor onrust zorgde. De casus toont de risico’s van zelfdiagnose met algoritmen, zeker bij genetische data. De discussie raakt aan privacy onder de AVG en de Europese AI‑verordening, met gevolgen voor overheid en zorg.
Chatbot duidt DNA verkeerd
De gebruiker uploadde ruwe DNA-bestanden van een consumententest naar een AI‑chatbot en vroeg om voedingsadvies. Het model koppelde een mogelijke erfelijke eigenschap aan een algemeen verbod op bonen. Zo’n stellige uitkomst kan misleidend zijn, omdat het systeem tekst voorspelt in plaats van medisch te oordelen.
Een groot taalmodel (LLM) beschrijft patronen in taal en kan daardoor overtuigend klinken. Maar zonder gecontroleerde bronnen en klinische richtlijnen kunnen zinnen ontstaan die niet kloppen voor een specifieke persoon. Dat risico heet hallucinatie: het model vult ontbrekende kennis zelfverzekerd in.
In de genetica telt nuance. Mensen met een G6PD-tekort moeten bijvoorbeeld oppassen met favabonen, maar dat geldt niet voor alle bonen en niet voor iedereen. Een AI‑chatbot die zo’n detail generaliseert, verandert een mogelijk risico in een onjuist verbod.
Medisch advies is hoogrisico-AI
Onder de Europese AI‑verordening (AI Act) vallen systemen die diagnoses ondersteunen onder hoogrisico‑AI. Dat vraagt strikte eisen aan data‑kwaliteit, traceerbaarheid en menselijk toezicht. Een disclaimer is daarbij niet genoeg; aanbieders hebben aantoonbare zorgplichten.
Populaire chatbots zoals ChatGPT van OpenAI, Gemini van Google en Claude van Anthropic zijn op het moment van schrijven geen in de EU gecertificeerde medische hulpmiddelen. Ze mogen daarom niet als zelfstandig medisch beslissysteem worden ingezet. Organisaties die ze toch gebruiken voor gezondheidsadvies lopen juridische en ethische risico’s.
Voor Nederlandse overheden en zorginstellingen betekent dit concrete compliance‑stappen. Denk aan een DPIA onder de AVG, een risicobeoordeling volgens de AI‑verordening en duidelijke instructies aan personeel. Dit raakt direct aan de “Europese AI‑verordening gevolgen overheid”: waarborg menselijk toezicht en voorkom dat chatbots buiten hun rol medische besluiten sturen.
Genetische data zijn extra gevoelig
Genetische gegevens zijn bijzondere persoonsgegevens onder de AVG. Verwerking mag alleen met een duidelijke wettelijke grondslag, minimale dataverzameling en sterke beveiliging. Het onbeperkt uploaden van DNA‑bestanden naar derden past daar slecht bij.
Bij gebruik van buitenlandse clouddiensten spelen ook doorgiften buiten de EU. Hoewel het EU‑VS Data Privacy Framework en standaardcontracten bestaan, blijven genetische datasets uiterst privacygevoelig. Versleuteling, dataminimalisatie en opslag binnen de EU zijn daarom belangrijk.
Consumentendiensten en chatbots bewaren invoer soms voor kwaliteitsdoeleinden, tenzij je instellingen aanpast of een zakelijk contract hebt. Wie ruwe DNA‑data deelt, geeft daarmee ook familie‑informatie prijs. Dat raakt niet alleen de gebruiker, maar mogelijk ook verwanten die geen toestemming gaven.
Genetische gegevens zijn persoonsgegevens over geërfde of verworven kenmerken die unieke informatie geven over de fysiologie of gezondheid van een persoon (AVG, artikel 4).
Wat werkt en wat niet
AI‑chatbots kunnen nuttig zijn om moeilijke termen uit een genetisch rapport in eenvoudige taal te verklaren. Ook kunnen ze bekende informatie samenvatten als je betrouwbare bronnen aanreikt. Dat is ondersteuning, geen diagnose.
Interpretatie van varianten vraagt gecontroleerde kennisbanken zoals ClinVar of gnomAD en een gevalideerde werkwijze. Een taalmodel zonder actuele, gecontroleerde context kan verouderde of verkeerde claims geven. Dit risico neemt toe als het model gissen moet op basis van schaarse details.
Een veiliger route is retrieval‑augmented generation: het systeem citeert aantoonbaar uit medische richtlijnen en publicaties. Zelfs dan blijft een menselijke professional nodig om conclusies te trekken. Zonder die stap kan een plausibele tekst ten onrechte als medisch advies worden gezien.
Advies voor Nederlandse gebruikers
Upload geen ruwe DNA‑bestanden naar publieke chatbots. Deel alleen samenvattingen zonder identificeerbare varianten en schakel gegevensdeling uit waar mogelijk. Controleer bewaartermijnen, locatie van servers en encryptie.
Zorgorganisaties doen er goed aan beleid vast te leggen voor het gebruik van generatieve AI. Betrek de functionaris gegevensbescherming, leg logging en toegangsbeheer vast en voer een DPIA uit. Laat medewerkers geen bijzondere persoonsgegevens, zoals genetische data, in consumenten‑apps plakken.
Twijfel over een genetische uitslag? Neem contact op met de huisarts of een polikliniek klinische genetica. Alleen een gekwalificeerde zorgverlener kan persoonlijke risico’s en leefstijladvies goed wegen, inclusief familiecontext en medische voorgeschiedenis.
