Onderzoekers en grote techbedrijven verwachten in 2026 nieuwe stappen in AI-gestuurd wetenschappelijk werk. In Europa sturen de AI-verordening en de AVG die ontwikkeling. Overheden en universiteiten kijken nu al naar āEuropese AI-verordening gevolgen overheidā. Extra rekenkracht uit EuroHPC-centra moet die plannen ondersteunen.
AI versnelt labwerk
Laboratoria automatiseren steeds meer met slimme software en robots. Zulke systemen plannen en sturen experimenten zelf; dat heet een self-driving lab. Generatieve AI, een techniek die nieuwe data of teksten maakt, helpt bij hypotheses en bij het ontwerp van tests. Dat kan onderzoek sneller en goedkoper maken, maar het vraagt strikte controle.
Alphabet-dochter Google DeepMind liet met AlphaFold zien hoe AI eiwitstructuren kan voorspellen. Dat soort modellen wordt nu breder ingezet, bijvoorbeeld voor materiaalonderzoek en chemie. Door simulatie en real-time feedback kunnen algoritmen het aantal mislukte proeven beperken. In 2026 kan dat leiden tot kortere doorlooptijden van ontdekking naar toepassing.
Een aandachtspunt is betrouwbaarheid. AI kan fouten versterken als de data slecht of scheef zijn. Daarom zijn validatie, reproduceerbaarheid en open protocollen nodig. Universiteiten en bedrijven zetten hiervoor toetskaders op die passen bij de AI-verordening.
Meer rekenkracht in Europa
EuroHPC bouwt aan krachtige supercomputers voor onderzoek. JUPITER in Jülich, LUMI in Finland en LEONARDO in ItaliĆ« leveren rekenkracht voor taalmodellen, simulaties en beeldanalyse. Dit helpt Europese teams om minder afhankelijk te zijn van clouds uit de VS. Het verkleint ook juridische risicoās rond data-overdracht.
De Europese Chips Act moet productie en toelevering van hardware in de regio versterken. ASML in Veldhoven blijft daarbij een sleutelpartij met lithografie-apparatuur. Nieuwe fabplannen van Intel in Magdeburg en TSMC in Dresden moeten schaarste verlichten. Dat is belangrijk, want AI-onderzoek is vaak begrensd door chips en energie.
Onderzoeksinstellingen in Nederland profiteren via SURF en nationale HPC-faciliteiten. Consortia combineren GPU-clusters met efficiƫntere algoritmen. Mixtures-of-experts en sparsity-technieken verlagen de kosten per training. Zo wordt experimenteren met grotere modellen haalbaarder voor publieke instellingen.
Europese AI-verordening stuurt onderzoek
De Europese AI-verordening (AI Act) treedt gefaseerd in vanaf 2025. Verboden toepassingen gelden eerder, terwijl regels voor hoog-risico systemen later volgen. Voor die laatste categorie is uiterlijk 2027 volledige naleving nodig. Onderzoeksprototypes vallen vaak buiten de strengste eisen, maar bij gebruik in de praktijk gelden de regels wel.
Hoog-risico AI omvat onder meer systemen voor zorg, onderwijs, werk en kritieke infrastructuur. Dan zijn risicobeheer, datakwaliteit en menselijke controle verplicht. Ook is technische documentatie nodig, inclusief test- en evaluatieverslagen. Voor generieke modellen komen transparantie-eisen en plicht tot redelijke zorg.
Hoog-risico AI-systemen moeten voor markttoegang een conformiteitsbeoordeling doorlopen.
Overheden moeten hun inkoop en toezicht hierop inrichten. Dat raakt direct aan āEuropese AI-verordening gevolgen overheidā. Gemeenten en ministeries zullen vragen om logboeken, bias-rapporten en robuustheidsmetingen. Publieke instellingen hebben dus nieuwe expertise en tooling nodig.
Privacy-eisen bepalen datagebruik
De AVG blijft leidend bij datasets voor training en testen. Dataminimalisatie, versleuteling en heldere doelen zijn verplicht. Voor medische en overheidsdata wordt vaker federated learning gebruikt. Dat is een methode waarbij modellen leren op lokale data zonder die data te verplaatsen.
De Europese Health Data Space moet secundair gebruik van gezondheidsdata regelen. Onderzoekers mogen dan makkelijker werken met goed afgeschermde gegevens. Het blijft wel essentieel om herleidbaarheid naar personen te voorkomen. Pseudonimisering en differentiƫle privacy helpen daarbij.
Synthetische data kan de druk op gevoelige data verlagen. Dit zijn kunstmatig gegenereerde voorbeelden die echte patronen benaderen. Ze verminderen privacyrisicoās, maar lossen juridische plichten niet volledig op. Instellingen moeten aantonen dat de synthetische data geen verborgen herleidbaarheid bevat.
Open modellen winnen terrein
Open-modellen zoals Llama 3 van Meta en Mixtral van Mistral krijgen meer gebruik in Europese labs. Open gewichten maken audit en aanpassing eenvoudiger. Dat past bij eisen voor transparantie en toetsbaarheid. Het verkort ook de tijd van experiment tot publicatie.
Hugging Face en Europese ELLIS-centra ondersteunen gedeelde evaluatiesets en benchmarktools. Zo wordt kwaliteit beter vergelijkbaar tussen projecten. Tegelijk blijft licentie- en aansprakelijkheidsrecht complex. Niet elk āopenā model is vrij van beperkingen voor commercieel of medisch gebruik.
Grote gesloten systemen, zoals OpenAI GPT-4 en Google Gemini, blijven relevant voor krachtige taken. Maar ze leveren soms minder inzicht in training en risicoās. Onderzoekers combineren daarom vaak open en gesloten bouwstenen. Die hybride aanpak kan voldoen aan zowel wetenschappelijke als juridische eisen.
Nederlandse kansen en risicoās
Nederlandse organisaties zoals NWO, TNO, UMCās en TUās richten nieuwe AI-projecten in voor zorg en klimaat. ICAI-labs en ELSA Labs bieden samenwerking met bedrijven. Voor taal en toegankelijkheid zijn er initiatieven rond de Nederlandse Gebarentaal. Dat sluit aan bij de Wet erkenning Nederlandse Gebarentaal en Europese projecten zoals SignON.
SURF en gemeenten testen generatieve AI voor dienstverlening. Denk aan samenvatten van dossiers of hulp bij formulieren. Dit raakt direct aan privacy en aan de AI Act-regels voor hoog-risico toepassingen. Daarom zijn impactassessments, menselijke controle en publieke verantwoording nodig.
Voor 2026 ligt de lat hoger bij inkoop en governance. ISO/IEC 42001, de AI-managementnorm, kan daarbij helpen. Instellingen combineren die norm met AVG- en AI Act-eisen. Zo worden algoritmen aantoonbaar veilig, eerlijk en uitlegbaar voordat ze in de praktijk komen.
