Fujitsu start een consortium om AI-gerelateerde desinformatie te bestrijden. Het initiatief richt zich op technieken voor herkomstcontrole en detectie van deepfakes. De start gebeurt vanuit Japan, met plannen voor samenwerking met partners in andere regioās. Het consortium is op het moment van schrijven in de opstartfase en wil de betrouwbaarheid van online informatie vergroten.
Consortium zet op herkomstcontrole
De kern van het plan is het vastleggen van de herkomst van digitale beelden, audio en tekst. Dat kan met watermerken en met zogenaamde content-provenance, waarbij bestanden een cryptografische āketen van bezitā krijgen. Watermerken zijn onzichtbare technische sporen die aangeven dat content door een algoritme is gemaakt. Provenance gebruikt daarentegen digitale handtekeningen om te laten zien wie wat wanneer heeft aangepast.
Fujitsu wil met het consortium praktische standaarden en tools samenbrengen. Denk aan breed gedragen initiatieven zoals C2PA en de Content Authenticity Initiative, die metadata en handtekeningen aan bestanden toevoegen. Zulke standaarden werken alleen goed als meerdere partijen ze tegelijk gebruiken. Daarom is afstemming tussen technologiebedrijven, media en platforms cruciaal.
Naast standaarden is integratie in productieketens belangrijk. Nieuwsredacties, overheden en platforms hebben verschillende werkprocessen en systemen. Het consortium mikt daarom op interoperabiliteit, zodat dezelfde controles in uiteenlopende redactiesystemen en cloudomgevingen werken. Zonder die technische aansluiting blijven provenance-tags vaak onderweg verloren gaan.
Detectie blijft onzeker
Het initiatief kijkt ook naar detectie van deepfakes, zoals beeld- en stemklonen. Deepfakes zijn synthetische media die door een model zijn gegenereerd of sterk bewerkt. Detectiesystemen zoeken naar statistische patronen of inconsistencies in pixels, audiofrequenties of metadatastromen. Zulke methoden helpen om verdachte content te markeren, maar ze zijn nooit feilloos.
Er is sprake van een wapenwedloop tussen makers en detectors. Naarmate generatieve modellen verbeteren, vervagen de sporen die detectors proberen te vinden. Dat leidt tot vals-positieven en vals-negatieven, wat vooral problematisch is in nieuws en verkiezingstijd. Het consortium zal daarom detectie moeten combineren met herkomstcontrole en redactionele checks.
Transparante rapportage hoort daar ook bij. Gebruikers moeten begrijpen wat een āwaarschijnlijk AI-gegenereerdā-label wel en niet betekent. Heldere drempelwaarden en auditbare modellen helpen om vertrouwen te winnen. Dat sluit aan bij Europese eisen rond uitlegbaarheid en risicobeheer.
Desinformatie is opzettelijk misleidende informatie, verspreid om te schaden of te sturen. Mis-informatie is onjuist, maar zonder opzet.
Aansluiting bij Europese regels
Voor Europa is de juridische context bepalend. De Europese AI-verordening (AI Act) verplicht tot transparantie bij synthetische media, zoals duidelijke labels voor deepfakes. Deze verplichtingen treden gefaseerd in werking in 2025 en 2026, op het moment van schrijven. Een consortium dat herkomst en detectie borgt, kan organisaties helpen om hieraan te voldoen.
Daarnaast legt de Digital Services Act (DSA) platforms extra zorgplichten op bij de beperking van desinformatie. Grote platforms moeten risicoās analyseren en maatregelen nemen, inclusief samenwerking met onderzoekers. Tools voor herkomstcontrole en detectie kunnen onderdeel zijn van zulke risicobeperking. Maar platforms moeten ook rekening houden met grondrechten, zoals vrijheid van meningsuiting.
Europese en nationale toezichthouders kijken steeds kritischer mee. Dat vraagt om logging, audits en impactanalyses die aantonen dat moderatie eerlijk en proportioneel is. Een industrieel consortium kan hier uniforme rapportages en technische profielen voor leveren. Zo wordt naleving minder ad hoc en beter vergelijkbaar.
Gevolgen voor Nederlandse overheid
Ook voor de Nederlandse overheid zijn de gevolgen concreet. āEuropese AI-verordening gevolgen overheidā betekent onder meer: correcte labeling van synthetische content en betrouwbare publieksvoorlichting. Bij crisisteams en verkiezingen is snelle verificatie van beelden en audio noodzakelijk. Provenance en detectie kunnen daar het beslisproces versnellen.
Publieke omroepen, gemeenten en ministeries werken met verschillende leveranciers en contentketens. Interoperabele standaarden zijn daarom essentieel, zodat herkomstinformatie niet verdwijnt bij export of transcodering. Voor de NPO en regionale omroepen kan dit in de nieuwsworkflow worden ingebouwd. Gemeenten kunnen het inzetten bij crisiscommunicatie en nepnieuws-meldpunten.
Ook onderwijs en zorg hebben er baat bij. Onderwijsinstellingen kunnen plagiaat en synthetische bronnen beter herkennen en labelen. Ziekenhuizen en GGDās voorkomen dat misleidende medische content wordt verspreid via officiĆ«le kanalen. Dat alles blijft binnen de kaders van de AVG en informatiebeveiliging.
Privacy en AVG-borging
Bij het opsporen en labelen van synthetische media mogen persoonsgegevens niet onnodig worden verwerkt. De AVG eist dataminimalisatie, doelbinding en passende versleuteling. Detectielogs moeten zo zijn ingericht dat ze nuttig zijn voor audits, maar geen overbodige persoonsgegevens bewaren. Pseudonimisering kan helpen bij onderzoek naar modelprestaties.
Content-provenance zelf kan privacyvriendelijk zijn. Digitale handtekeningen bevestigen de keten van bewerking zonder onderliggende brondata te onthullen. Wel is sleutelbeheer een aandachtspunt: verlies of misbruik van sleutels kan het systeem ondermijnen. Het consortium zal dus duidelijke governance en sleutelrotatie moeten regelen.
Transparantie naar gebruikers hoort daarbij. Heldere labels en toegankelijke uitleg over wat een āAI-gegenereerdā-markering betekent, zijn noodzakelijk. Organisaties kunnen bovendien bezwaarprocedures bieden bij foutieve labels. Zo blijft controleerbaarheid verenigbaar met rechten van burgers.
Samenwerking en draagvlak nodig
Techniek alleen is niet genoeg; draagvlak bij media, platforms en overheid is nodig. Redacties willen tools die in hun bestaande systemen passen, zonder vertraging of kwaliteitsverlies. Platforms letten op schaalbaarheid en foutmarges. Overheden vragen om uitlegbaarheid en proportionele handhaving.
Het consortium van Fujitsu kan hier als schakel optreden. Door referentie-implementaties en open specificaties te delen, wordt adoptie eenvoudiger. Aansluiting op bekende standaarden zoals C2PA vergroot de kans op brede invoering. Open tests met onafhankelijke evaluaties verhogen het vertrouwen.
Europa biedt kansen voor publiek-private samenwerking en onderzoeksfinanciering. Programmaās en testfaciliteiten kunnen pilots versnellen met Europese datasets en use-cases. Dat helpt om oplossingen te maken die passen bij taal, recht en cultuur in Nederland en de EU. Zo kan het initiatief internationale techniek koppelen aan lokale behoeften.
