Fujitsu start consortium tegen AI-desinformatie: wie doet mee?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Fujitsu start consortium tegen AI-desinformatie: wie doet mee?

Amsterdam, 10 december 2025 11:37 

Fujitsu start een consortium om AI-gerelateerde desinformatie te bestrijden. Het initiatief richt zich op technieken voor herkomstcontrole en detectie van deepfakes. De start gebeurt vanuit Japan, met plannen voor samenwerking met partners in andere regio’s. Het consortium is op het moment van schrijven in de opstartfase en wil de betrouwbaarheid van online informatie vergroten.

Consortium zet op herkomstcontrole

De kern van het plan is het vastleggen van de herkomst van digitale beelden, audio en tekst. Dat kan met watermerken en met zogenaamde content-provenance, waarbij bestanden een cryptografische ā€œketen van bezitā€ krijgen. Watermerken zijn onzichtbare technische sporen die aangeven dat content door een algoritme is gemaakt. Provenance gebruikt daarentegen digitale handtekeningen om te laten zien wie wat wanneer heeft aangepast.

Fujitsu wil met het consortium praktische standaarden en tools samenbrengen. Denk aan breed gedragen initiatieven zoals C2PA en de Content Authenticity Initiative, die metadata en handtekeningen aan bestanden toevoegen. Zulke standaarden werken alleen goed als meerdere partijen ze tegelijk gebruiken. Daarom is afstemming tussen technologiebedrijven, media en platforms cruciaal.

Naast standaarden is integratie in productieketens belangrijk. Nieuwsredacties, overheden en platforms hebben verschillende werkprocessen en systemen. Het consortium mikt daarom op interoperabiliteit, zodat dezelfde controles in uiteenlopende redactiesystemen en cloudomgevingen werken. Zonder die technische aansluiting blijven provenance-tags vaak onderweg verloren gaan.

Detectie blijft onzeker

Het initiatief kijkt ook naar detectie van deepfakes, zoals beeld- en stemklonen. Deepfakes zijn synthetische media die door een model zijn gegenereerd of sterk bewerkt. Detectiesystemen zoeken naar statistische patronen of inconsistencies in pixels, audiofrequenties of metadatastromen. Zulke methoden helpen om verdachte content te markeren, maar ze zijn nooit feilloos.

Er is sprake van een wapenwedloop tussen makers en detectors. Naarmate generatieve modellen verbeteren, vervagen de sporen die detectors proberen te vinden. Dat leidt tot vals-positieven en vals-negatieven, wat vooral problematisch is in nieuws en verkiezingstijd. Het consortium zal daarom detectie moeten combineren met herkomstcontrole en redactionele checks.

Transparante rapportage hoort daar ook bij. Gebruikers moeten begrijpen wat een ā€œwaarschijnlijk AI-gegenereerdā€-label wel en niet betekent. Heldere drempelwaarden en auditbare modellen helpen om vertrouwen te winnen. Dat sluit aan bij Europese eisen rond uitlegbaarheid en risicobeheer.

Desinformatie is opzettelijk misleidende informatie, verspreid om te schaden of te sturen. Mis-informatie is onjuist, maar zonder opzet.

Aansluiting bij Europese regels

Voor Europa is de juridische context bepalend. De Europese AI-verordening (AI Act) verplicht tot transparantie bij synthetische media, zoals duidelijke labels voor deepfakes. Deze verplichtingen treden gefaseerd in werking in 2025 en 2026, op het moment van schrijven. Een consortium dat herkomst en detectie borgt, kan organisaties helpen om hieraan te voldoen.

Daarnaast legt de Digital Services Act (DSA) platforms extra zorgplichten op bij de beperking van desinformatie. Grote platforms moeten risico’s analyseren en maatregelen nemen, inclusief samenwerking met onderzoekers. Tools voor herkomstcontrole en detectie kunnen onderdeel zijn van zulke risicobeperking. Maar platforms moeten ook rekening houden met grondrechten, zoals vrijheid van meningsuiting.

Europese en nationale toezichthouders kijken steeds kritischer mee. Dat vraagt om logging, audits en impactanalyses die aantonen dat moderatie eerlijk en proportioneel is. Een industrieel consortium kan hier uniforme rapportages en technische profielen voor leveren. Zo wordt naleving minder ad hoc en beter vergelijkbaar.

Gevolgen voor Nederlandse overheid

Ook voor de Nederlandse overheid zijn de gevolgen concreet. ā€œEuropese AI-verordening gevolgen overheidā€ betekent onder meer: correcte labeling van synthetische content en betrouwbare publieksvoorlichting. Bij crisisteams en verkiezingen is snelle verificatie van beelden en audio noodzakelijk. Provenance en detectie kunnen daar het beslisproces versnellen.

Publieke omroepen, gemeenten en ministeries werken met verschillende leveranciers en contentketens. Interoperabele standaarden zijn daarom essentieel, zodat herkomstinformatie niet verdwijnt bij export of transcodering. Voor de NPO en regionale omroepen kan dit in de nieuwsworkflow worden ingebouwd. Gemeenten kunnen het inzetten bij crisiscommunicatie en nepnieuws-meldpunten.

Ook onderwijs en zorg hebben er baat bij. Onderwijsinstellingen kunnen plagiaat en synthetische bronnen beter herkennen en labelen. Ziekenhuizen en GGD’s voorkomen dat misleidende medische content wordt verspreid via officiĆ«le kanalen. Dat alles blijft binnen de kaders van de AVG en informatiebeveiliging.

Privacy en AVG-borging

Bij het opsporen en labelen van synthetische media mogen persoonsgegevens niet onnodig worden verwerkt. De AVG eist dataminimalisatie, doelbinding en passende versleuteling. Detectielogs moeten zo zijn ingericht dat ze nuttig zijn voor audits, maar geen overbodige persoonsgegevens bewaren. Pseudonimisering kan helpen bij onderzoek naar modelprestaties.

Content-provenance zelf kan privacyvriendelijk zijn. Digitale handtekeningen bevestigen de keten van bewerking zonder onderliggende brondata te onthullen. Wel is sleutelbeheer een aandachtspunt: verlies of misbruik van sleutels kan het systeem ondermijnen. Het consortium zal dus duidelijke governance en sleutelrotatie moeten regelen.

Transparantie naar gebruikers hoort daarbij. Heldere labels en toegankelijke uitleg over wat een ā€œAI-gegenereerdā€-markering betekent, zijn noodzakelijk. Organisaties kunnen bovendien bezwaarprocedures bieden bij foutieve labels. Zo blijft controleerbaarheid verenigbaar met rechten van burgers.

Samenwerking en draagvlak nodig

Techniek alleen is niet genoeg; draagvlak bij media, platforms en overheid is nodig. Redacties willen tools die in hun bestaande systemen passen, zonder vertraging of kwaliteitsverlies. Platforms letten op schaalbaarheid en foutmarges. Overheden vragen om uitlegbaarheid en proportionele handhaving.

Het consortium van Fujitsu kan hier als schakel optreden. Door referentie-implementaties en open specificaties te delen, wordt adoptie eenvoudiger. Aansluiting op bekende standaarden zoals C2PA vergroot de kans op brede invoering. Open tests met onafhankelijke evaluaties verhogen het vertrouwen.

Europa biedt kansen voor publiek-private samenwerking en onderzoeksfinanciering. Programma’s en testfaciliteiten kunnen pilots versnellen met Europese datasets en use-cases. Dat helpt om oplossingen te maken die passen bij taal, recht en cultuur in Nederland en de EU. Zo kan het initiatief internationale techniek koppelen aan lokale behoeften.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>