ByteDance stelt de wereldwijde lancering van een nieuwe AI‑videotool uit. Het Chinese bedrijf achter TikTok en CapCut doet dat na druk van Hollywood‑studio’s en vakbonden. Zij vrezen misbruik van auteursrecht en digitale beeltenissen van acteurs. Het uitstel geldt wereldwijd en gaat direct in, terwijl ByteDance werkt aan afspraken en extra waarborgen.
Hollywood vraagt om waarborgen
Filmstudio’s en vakbonden in de VS willen harde garanties over rechten en toestemming. Hun zorg is dat het systeem zonder licenties is getraind op films, scripts en stemopnamen. Ook willen zij afspraken over wanneer AI‑video’s gebruikt mogen worden in producties en marketing. De inzet is bescherming van banen, inkomsten en reputaties van makers en acteurs.
De kern van het conflict is training en output. Training gaat over welke data het model gebruikt om te leren. Output gaat over wat het systeem mag produceren en hoe dat wordt gelabeld. Zonder duidelijke grenzen kan een algoritme te veel lijken op bestaand werk of op iemands gezicht of stem.
Hollywood zoekt daarom licentiedeals en technische controles. Denk aan contentfilters, watermerken en detectietools. Ook eisen partijen logboeken over gebruikte data en prompts. Dat maakt naleving en audits mogelijk.
ByteDance tempert introductie
De AI‑videotool is bedoeld om met tekst korte clips te genereren. Zo’n tekst‑naar‑video model maakt beelden en geluid op basis van een omschrijving. Dat kan handig zijn voor snelle concepten, advertenties en social video. Maar het verhoogt ook het risico op inbreuk en misleiding.
Met het uitstel koopt ByteDance tijd om eisen te verhelderen. Het bedrijf kan onderhandelen over licenties en aanvullende veiligheidslagen bouwen. Denk aan strengere filters, herkomstlabels en beperkingen op bekende gezichten. Ook kan het bedrijf kiezen voor datasets met expliciete rechten.
Voor gebruikers betekent dit dat toegang voorlopig uitblijft. Makers die al werken met CapCut of vergelijkbare apps moeten het doen met bestaande functies. Een nieuwe releasedatum is op het moment van schrijven niet bekend. Het wereldwijde karakter van het uitstel wijst op brede juridische en commerciële risico’s.
Europese regels zetten de toon
De Europese AI‑verordening (AI Act) legt transparantie op aan generieke AI‑systemen. Aanbieders moeten onder meer technische documentatie, veiligheidsmaatregelen en informatie over trainingsdata geven. Ook gelden regels voor het labelen van synthetische media, zoals deepfakes. Veel verplichtingen gaan gefaseerd in vanaf 2025 en 2026, op het moment van schrijven.
Het EU‑auteursrecht kent een “text‑ and data‑mining” regime met opt‑outs. Rechthebbenden mogen scraping en hergebruik van hun werken voor modeltraining verbieden. Voor een mondiale dienst moet ByteDance zulke Europese opt‑outs herkennen en respecteren. Dat vereist technische en organisatorische maatregelen in de hele keten.
Daarnaast speelt privacyrecht. Biometrische gegevens, zoals gezichten en stemmen, vallen onder de AVG. Zonder duidelijke grondslag en dataminimalisatie is verwerking niet toegestaan. Dit raakt direct aan het genereren en verspreiden van AI‑video’s met echte personen.
De AI‑verordening voorziet in boetes tot 7% van de wereldwijde omzet bij zware overtredingen. Dat maakt naleving voor aanbieders commercieel cruciaal.
Effect op Nederland en EU‑makers
Nederlandse omroepen, bureaus en productiehuizen zoeken naar snelle videoworkflows. Een betrouwbare AI‑videotool kan kosten verlagen in preproductie en concepting. Maar zonder heldere rechtenafspraken is het risico groot. Een spot of online campagne kan anders stilvallen door claims.
Praktisch betekent dit extra due diligence. Vraag naar herkomst van trainingsdata en licenties, en eis watermerken en detectierapporten. Leg contractueel vast dat portretrechten en muziek zijn gedekt. En test detectietools om onbedoelde overeenkomsten met bestaand materiaal te vinden.
Overheden en onderwijsinstellingen hebben een publieke voorbeeldrol. Zij moeten voldoen aan de AI‑verordening en de AVG. Inkoopvoorwaarden kunnen eisen stellen aan transparantie, logbestanden en risicobeoordelingen. Dat versnelt veilige inzet en voorkomt reputatieschade.
Concurrenten bewegen verschillend
Andere aanbieders van AI‑video gaan voorzichtig te werk. OpenAI’s Sora, Google’s videomodellen en Meta’s Emu Video zijn beperkt beschikbaar of in test. Publieke tools als Runway, Pika en Kuaishou’s Kling tonen snelle vooruitgang, maar met wisselende kwaliteit. Het speelveld verandert wekelijks, terwijl juridische kaders strenger worden.
Voor alle spelers geldt: rechten en transparantie zijn doorslaggevend voor brede uitrol. Zonder licenties en heldere labels blijft toegang beperkt tot pilots. Grote studio’s en platforms eisen controle over herkomst en gebruik. Dat zet de norm voor kleinere partijen en open‑sourceprojecten.
Europa kan hier een marktstandaard worden. Duidelijke regels maken investeringen voorspelbaar. Wie nu bouwt aan compliancedocumentatie en provenance, wint later tijd. En verkleint de kans op dure aanpassingen achteraf.
Nog veel onbekend
Onzeker is welke datasets ByteDance uiteindelijk gebruikt. Ook is onduidelijk welke filters en labels het bedrijf invoert. Belangrijk wordt of er sectorbrede licentiedeals komen met studio’s en uitgevers. Zulke afspraken kunnen de deur openen voor gecontroleerde lanceringen.
Voor makers en bedrijven is het advies nuchter en praktisch. Inventariseer risico’s, leg verantwoordelijkheden vast en test alternatieven. Kijk naar Europese nalevingseisen en pas processen daarop aan. Zo blijft innovatie mogelijk binnen veilige en legale grenzen.
De vertraging bij ByteDance is meer dan een bedrijfsbesluit. Het laat zien dat AI‑video een juridisch en maatschappelijk dossier is. Technologie schuift snel, maar rechten en regels bepalen de route. De komende maanden zullen tonen welke balans haalbaar is.
