Studie: AI kan gevaarlijk DNA ontwerpen en biosecurity omzeilen

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Studie: AI kan gevaarlijk DNA ontwerpen en biosecurity omzeilen

Amsterdam, 3 oktober 2025 08:35 

Een nieuw onderzoek, gemeld door NPR, laat zien dat generatieve AI DNA‑ontwerpen kan produceren die gevaarlijke biologische functies coderen en toch door bestaande biosecurity‑controles glippen.

De studie testte meerdere AI‑modellen en vond dat sommige uitkomsten niet werden opgemerkt door gangbare screenings die gene‑synthesebedrijven gebruiken. De bevindingen zetten beleidsmakers, onderzoekers en de biotechsector ertoe aan hun verdedigingslinies te herzien en te versterken.

Wat de onderzoekers vonden

Volgens het onderzoek kunnen grote taalmodellen en biologische AI‑tools sequenties genereren die wijzen op potentieel risicovolle eigenschappen.

Hoewel veel modellen ingebouwde veiligheidsfilters hebben, bleken sommige gegenereerde ontwerpen achteraf functies te bevatten die met schadelijke biologie in verband worden gebracht. De kernboodschap: niet alle huidige AI‑veiligheidsmaatregelen en downstream‑controles vangen deze risico’s afdoende af.

De auteurs benadrukken dat hun resultaten laten zien hoe makkelijk het is om functioneel nieuwe varianten te maken die niet één‑op‑één overeenkomen met bekende referenties. Daardoor kan screening die primair kijkt naar bekende patronen of letterlijke overeenkomsten tekortschieten.

Het onderzoek roept op tot detectiemethoden die beter inspelen op biologische functie en context, in plaats van alleen op sequentie‑gelijkenis.

Waarom huidige controles kwetsbaar zijn

Veel biosecurity‑processen in de DNA‑keten zijn historisch geoptimaliseerd om bekende dreigingen op te sporen. Ze leunen vaak op lijsten, trefwoorden of sequentie‑overeenkomst met bekende voorbeelden. Generatieve AI kan echter varianten voorstellen die functioneel vergelijkbaar zijn, maar qua sequentie afwijken, waardoor traditionele filters onvoldoende zijn.

Daarnaast beoordelen controles soms onderdelen geïsoleerd, terwijl risico’s pas zichtbaar worden in de samenhang van een groter ontwerp. Deze combinatie — functionele vernieuwing door AI en gefragmenteerde beoordeling — vergroot de kans dat gevaarlijke ontwerpen onder de radar blijven. Dat maakt de noodzaak van gelaagde, contextbewuste beveiliging urgent.

Reacties en bestaande initiatieven

In de industrie bestaan vrijwillige standaarden voor klant- en sequentiescreening, bijvoorbeeld binnen internationale brancheverenigingen. Overheden in de VS en Europa werken aan richtlijnen om nucleïnezuur‑screening te verbeteren en de adoptie ervan te verbreden.

Ook AI‑bedrijven investeren in model‑evaluaties en red‑teaming rond bio‑risico’s, maar de NPR‑rapportage suggereert dat de praktijk nog niet sluitend is.

De studie versterkt de roep om consistente, wereldwijd toepasbare normen voor zowel AI‑ontwikkelaars als gene‑syntheseaanbieders. Zonder heldere spelregels en onafhankelijke audits blijven er gaten tussen model‑veiligheid, laboratoriumpraktijken en commerciële workflows. Betere afstemming kan voorkomen dat verantwoordelijkheden tussen wal en schip vallen.

Wat er nodig is voor sterkere biosecurity

Experts pleiten voor gelaagde verdediging: strengere klantvalidatie, geavanceerdere detectie die naar functie kijkt, en continue monitoring van bestellingen en ontwerpaanvragen. Aan de AI‑kant zijn transparante evals, dataset‑hygiëne, en ingebouwde beperkingen op gevaarlijke output van belang. Samenwerking tussen modelbouwers, biosecurity‑specialisten en synthese‑bedrijven is cruciaal om lekken in de keten te dichten.

Ook governance‑maatregelen kunnen een verschil maken, zoals certificering van aanbieders, minimumvereisten voor screening en incidentmeldingsplichten. Publiek‑private onderzoeksprogramma’s kunnen nieuwe tools stimuleren die beter herkennen wanneer een ontwerp een risicovolle functie kan vervullen. Dit alles moet gepaard gaan met training en bewustwording in labs, startups en onderwijsinstellingen.

Gevolgen voor Nederland en Europa

Europa werkt aan overkoepelende AI‑regelgeving en biosecurity‑kaders, maar implementatie in de praktijk is bepalend. Nederlandse kennisinstellingen, biotechs en DNA‑leveranciers kunnen vooroplopen door vrijwillig strengere toetsing en onafhankelijke audits te omarmen. Dat verkleint niet alleen risico’s, maar versterkt ook vertrouwen bij investeerders en internationale partners.

Gezien de open, internationaal verweven biotech‑keten is grensoverschrijdende harmonisatie essentieel. Nederland kan binnen EU‑verband aandringen op uniforme eisen aan screening, heldere aansprakelijkheid en gegevensdeling over verdachte patronen. Daarmee wordt het moeilijker voor gevaarlijke ontwerpen om in de luwte van verschillende jurisdicties te opereren.

Referenties

NPR – “AI designs for dangerous DNA can slip past biosecurity measures, study shows”, gepubliceerd op 2 oktober via npr.org


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>