Walt Disney heeft TikTok gevraagd een AI-functie op het platform stil te zetten. Het gaat om algoritmen die content rond Disney‑merken of personages konden genereren. De ingreep gebeurde recent en is op het moment van schrijven van kracht. Aanleiding zijn zorgen over merkrecht, auteursrecht en misleiding van gebruikers, terwijl ook de Europese AI‑verordening en de gevolgen voor overheidstoezicht meespelen.
Disney remt TikTok-functie
Disney wil controle houden over hoe zijn merken en figuren online verschijnen. Op TikTok doken recent AI‑functies op die materiaal in Disney‑stijl konden maken of associaties met Disney‑eigendom wekten. Het bedrijf heeft TikTok verzocht deze mogelijkheden te pauzeren. Daarmee moet ongeoorloofd gebruik en verwarring bij het publiek worden voorkomen.
TikTok, eigendom van ByteDance, experimenteert al langer met generatieve systemen voor beeld, audio en tekst. Zulke systemen leren van grote verzamelingen voorbeelden en produceren daarna nieuwe uitingen. Zonder duidelijke grenzen kunnen ze te dicht in de buurt komen van beschermde stijlkenmerken of personages. Dat levert juridische en reputatierisico’s op voor beide bedrijven.
Voor gebruikers betekent dit dat bepaalde effecten of AI‑prompts tijdelijk niet werken. Makers en adverteerders moeten hun content aanpassen of wachten op een update. TikTok onderzoekt doorgaans technische filters en extra waarschuwingen. Pas bij voldoende zekerheid over rechten en moderatie gaat een functie weer live.
Merkenrecht en auteursrecht knellen
In Europa beschermen het auteursrecht en het merkenrecht creatieve werken en handelsmerken. Ook stijlelementen kunnen, afhankelijk van de uitwerking, onder het auteursrecht vallen. Als een AI‑tool outputs geeft die sterk lijken op een beschermd werk of merk, kan dat een inbreuk zijn. Platforms en makers lopen dan het risico op claims of verwijderingen.
De scheidslijn tussen inspiratie en nabootsing is bij generatieve AI extra dun. Het model is getraind op talloze voorbeelden en kan onbedoeld herkenbare elementen reproduceren. Zonder duidelijke licenties of strikte prompt‑filters ontstaat een grijs gebied. Juist hier grijpen merken als Disney snel in om hun rechten te bewaken.
Generatieve AI is software die op basis van voorbeelden nieuwe tekst, beeld of audio maakt; dat kan ongewenst lijken op bestaand, beschermd materiaal.
Gaat het om stemmen of herkenbare personen, dan speelt ook de AVG. Een stem of gelijkenis kan persoonlijke data zijn en valt dan onder dataminimalisatie en toestemming. Voor TikTok betekent dit strengere checks op deepfakes, labels en versleuteling bij verwerking. Bedrijven moeten kunnen uitleggen welke data zij gebruiken en waarom.
AI Act dwingt meer transparantie
De Europese AI‑verordening (AI Act) verplicht generatieve modellen tot transparantie over AI‑content en redelijke maatregelen tegen misbruik. Dat raakt direct platforms als TikTok, die AI‑effecten en creatieve tools aanbieden. Denk aan zichtbare labels, watermerken en documentatie over beperkingen. Op het moment van schrijven bereiden aanbieders zich voor op gefaseerde invoering.
De Digital Services Act (DSA) vereist daarnaast risicobeoordelingen rond desinformatie en deepfakes. Een AI‑filter dat merkinhoud nabootst kan onder die zorgplichten vallen. Platforms moeten aantonen dat ze misleiding beperken en klachten snel afhandelen. Dat vergroot de druk om functies te pauzeren als er twijfel is.
Voor overheden schept dit nieuwe handhavingstaken. De Europese AI‑verordening en de gevolgen voor overheid en toezichthouders worden concreet bij incidenten zoals deze. Nationale autoriteiten, zoals de Autoriteit Persoonsgegevens, letten op privacyaspecten. Mede daarom kiezen bedrijven eerder voor pauzeren dan voor risico.
Impact op makers en adverteerders
Nederlandse creators en bureaus die TikTok gebruiken moeten strenger op licenties letten. Het ongezien toepassen van merknamen of herkenbare stijlen in prompts kan tot verwijderingen leiden. Ook gesponsorde posts met AI‑beelden vragen om heldere rechten en disclosure. Zonder dat lopen campagnes vast of krijgen ze minder bereik.
Adverteerders vragen steeds vaker om “brand‑safe” AI‑tools met harde filters. Dat betekent beperkingen op woordenlijsten, visuele herkenning en automatische blokkades. De creativiteit voelt dan soms minder vrij, maar het verkleint juridische risico’s. Voor grote merken is die zekerheid belangrijker dan maximale speelsheid.
Voor mediabedrijven opent dit de deur naar licentiedeals. In plaats van open prompts komen er officiële, betaalde AI‑packs met merkrechten. Zo behouden rechthebbenden controle en inkomsten. TikTok kan die aanpak integreren in zijn advertentie‑suite.
Techniek vraagt strengere guardrails
AI‑filters voor stijl of personages werken vaak met tekst‑naar‑beeld of beeld‑naar‑beeld. Een model vertaalt de prompt naar visuele kenmerken en past die toe. Zonder guardrails hergebruikt het elementen die te herkenbaar zijn. Detectie‑modellen en prompt‑blokkades vangen dat deels af, maar niet volledig.
Watermerken en detectietekens helpen bij herkomstherkenning. Ze maken zichtbaar dat een beeld door een model is gemaakt. Toch zijn ze technisch te omzeilen en vragen dus om aanvullend toezicht. Menselijke moderatie en klachtenprocedures blijven nodig.
Transparante modelkaarten geven inzicht in trainingsdata en beperkingen. Dat maakt het makkelijker om rechten te beoordelen. In de EU wordt zulke documentatie de norm. Bedrijven die dit op orde hebben, kunnen sneller nieuwe functies lanceren.
Wat volgt voor platforms
We verwachten dat TikTok strengere merkfilters en waarschuwingen invoert. Ook zal het bedrijf deals zoeken met grote studio’s voor gecontroleerde AI‑effecten. Daarmee kunnen populaire trends doorlopen zonder juridische frictie. Disney’s ingreep versnelt die beweging.
Voor gebruikers verandert vooral de manier waarop ze AI‑prompts schrijven. Platforms sturen naar veiligere termen en gelicentieerde assets. Creators die daar handig mee omgaan, behouden bereik en inkomsten. Wie grenzen opzoekt, loopt meer kans op takedowns.
In Europa zorgen AI Act en DSA voor blijvende druk op naleving. Transparantie, labeling en risicobeperking worden basisvoorwaarden. Het incident rond TikTok en Disney toont hoe beleid en techniek samen optrekken. Zo ontstaat stap voor stap duidelijkheid voor merken, makers en publiek.
