Onderzoekers in Europa en Nederland gebruiken steeds vaker kunstmatige intelligentie in hun werk. Dat versnelt literatuuronderzoek, data-analyse en het schrijven van teksten, maar levert ook nieuwe risico’s op. Universiteiten, uitgevers en toezichthouders wegen nu de gevolgen voor kwaliteit en integriteit. De inzet: snellere wetenschap, zonder verlies van betrouwbaarheid en transparantie.
AI versnelt onderzoekstaken
Grote taalmodellen zoals ChatGPT (OpenAI) en Gemini (Google) helpen wetenschappers met samenvattingen, vertalingen en het herschrijven van methodesecties. Zulke modellen voorspellen het volgende woord op basis van enorme tekstverzamelingen. Daardoor werken ze vlot, maar ze kunnen ook zelfverzekerd onjuiste informatie geven. Onderzoekers gebruiken ze daarom vooral als assistent, niet als auteur.
In programmeerwerk bieden GitHub Copilot (Microsoft) en CodeWhisperer (Amazon) suggesties voor code en documentatie. Dat scheelt tijd bij datareiniging en het bouwen van analysescripts. Wel blijft menselijk nalezen noodzakelijk, omdat foutjes in code grote gevolgen kunnen hebben voor uitkomsten. Veel labs leggen daarom vast dat elke AI-gegenereerde regel code wordt gereviewd.
Open modellen zoals Llama (Meta) en Mistral laten zich lokaal draaien op universitaire servers. Dat is handig bij gevoelige datasets die een instelling niet naar de cloud wil sturen. Het verkleint privacyrisico’s en kan kosten besparen. Tegelijk vergt het beheer expertise en duidelijke afspraken over beveiliging.
Kwaliteit en bias blijven risico
Generatieve systemen hebben last van “hallucinaties”: antwoorden die overtuigend klinken maar feitelijk onjuist zijn. In wetenschap kan zo’n fout doorwerken in hypothesen of beleidsadviezen. Daarom eisen steeds meer onderzoeksgroepen bronvermelding en controle door een vakexpert. Tools die “feiten ankeren” aan literatuur, zoals Elicit of Scite, helpen maar lossen het probleem niet volledig op.
Datamodellen erven ook vooroordelen uit hun trainingsdata, bijvoorbeeld onder- of overrepresentatie van groepen. Dit beïnvloedt literatuursamenvattingen en kan ongelijkheid vergroten, vooral in medische of sociale studies. Een aanpak is dataminimalisatie en diversere trainingssets, in lijn met de AVG. Toch blijft bias-detectie moeilijk en contextafhankelijk.
Beeldgeneratie met Midjourney of Stable Diffusion maakt manipulatie eenvoudiger. Tijdschriften scherpen daarom richtlijnen aan voor beeldbewerking en vereisen de ruwe data. Peer reviewers krijgen ondersteuning met detectietools, maar die leveren ook vals-positieven. Uiteindelijk blijft menselijke beoordeling leidend voor publicatie.
Definitie: “Hallucinaties” zijn AI-antwoorden die grammaticaal correct ogen maar inhoudelijk onjuist zijn, doordat het model tekstpatronen volgt zonder begrip van feiten.
Papierproductie groeit, druk neemt toe
Tijdschriften en preprintservers zien meer inzendingen met AI-bijdragen. Redacties melden vaker gestandaardiseerde schrijfstijl en herhalende formuleringen. Dat maakt het lastiger om originele bijdragen te herkennen. Sommige uitgevers vragen nu om expliciete vermelding van AI-gebruik in het manuscript.
De publicatiedruk in veel disciplines vergroot de verleiding om tekst te laten genereren. Korte doorlooptijden en concurrerende financiering stimuleren snelheid boven zorgvuldigheid. Instellingen reageren met training in verantwoorde inzet van algoritmen. Steeds vaker is AI-gebruik onderdeel van integriteitscursussen voor promovendi.
Ook peer review verandert. Recensenten gebruiken systemen om literatuur te scannen en methodes te vergelijken. Dat versnelt het beoordelingsproces, maar kan blinde vlekken creëren als iedereen dezelfde tools gebruikt. Redacties experimenteren daarom met gemengde teams en second-opinions zonder AI.
AI-verordening stuurt wetenschap
De Europese AI-verordening (AI Act) legt transparantieplichten op aan aanbieders van generatieve modellen, zoals OpenAI, Google en Meta. Voor universiteiten en labs betekent dit duidelijkere informatie over herkomst, beperkingen en testdata van de gebruikte systemen. Er geldt een onderzoeksuitzondering, maar die heft zorgvuldigheid niet op. Vooral bij toepassing op burgers of patiënten gelden strengere eisen.
Voor medische en maatschappelijke toepassingen vallen AI-systemen sneller in de hogere risicoklassen. Dan is documentatie, risicobeoordeling en menselijke controle verplicht. In Nederland raken deze regels onder meer ziekenhuizen en gemeenten die algoritmen inzetten in zorg of dienstverlening. Instellingen doen er goed aan nu al te toetsen of hun AI-werkstromen voldoen.
De AVG blijft daarnaast leidend bij persoonsgegevens. Dataminimalisatie, pseudonimisering en versleuteling zijn basisvereisten. Financiers zoals NWO vragen op het moment van schrijven om datamanagementplannen waarin deze maatregelen zijn uitgewerkt. Voor Europese samenwerking sluiten veel projecten aan bij OpenAIRE-richtlijnen voor FAIR data.
Transparantie en herhaalbaarheid nodig
Wetenschappelijke waarde staat of valt met reproduceerbaarheid. Daarom groeit de eis om prompts, modelversies en instellingen te documenteren. Zonder die gegevens is een resultaat lastig te controleren. Repositoriums nemen nu ook “prompt logs” en modelmetadata op naast code en data.
Open source-modellen maken verificatie en lokale validatie makkelijker. Tegelijk zijn licenties en aansprakelijkheid niet altijd duidelijk. Juridische teams adviseren daarom over gebruiksvoorwaarden en herdistributie. Dit voorkomt conflicten bij publicatie en valorisatie.
Bij gevoelige domeinen, zoals geneeskunde en recht, is menselijke eindverantwoordelijkheid cruciaal. “Human-in-the-loop” betekent dat een expert altijd de uitkomst bekijkt en kan ingrijpen. Veel ziekenhuizen en overheden werken al met dit principe bij besluitvorming. Het past bij Europese regels die geautomatiseerde beslissingen over burgers willen beperken.
Wat instellingen nu kunnen doen
Maak heldere richtlijnen voor inzet van AI in onderzoek, onderwijs en peer review. Vereis disclosure van gebruikte systemen, versies en prompts in elke publicatie. Leg vast dat AI-gegenereerde tekst en code altijd door een mens wordt gecontroleerd. Train medewerkers in risico’s en basisprincipes van dataveiligheid.
Voer een validatiecheck uit bij elk AI-gevoelig onderdeel: data-invoer, modelkeuze, interpretatie en rapportage. Gebruik waar mogelijk lokale of Europese alternatieven die voldoen aan AVG en AI Act. Overweeg modelkaarten en risicologboeken voor interne audits. Betrek ondernemingsraad en ethische commissies bij nieuwe workflows.
Werk samen met SURF en Universiteiten van Nederland aan gedeelde voorzieningen en kennis. Sluit aan bij Europese initiatieven zoals OpenAIRE en EOSC voor data-infrastructuur. Zo wordt de inzet van algoritmen efficiënter én controleerbaar. Uiteindelijk wint wetenschap tijd, zonder de kwaliteit te verliezen.
