De Belgische mediatopman Hans Bourlon, medeoprichter van Studio 100, sprak deze week openlijk over een “serieuze tegenvaller” rond digitale innovatie. Het gaat om keuzes bij de inzet van nieuwe technologie, waaronder kunstmatige intelligentie. De opmerkingen kwamen in Vlaanderen, waar Studio 100 actief is met tv, muziek en pretparken. De kwestie raakt ook Nederland en Europa, waar strengere regels voor AI en platforms gelden.
Studio 100 voelt de druk
Mediabedrijven staan onder druk van veranderende kijkgewoonten en platformalgoritmen. Aanbod moet sneller, goedkoper en in meer talen online kunnen. AI lijkt daarbij handig, maar de praktijk is weerbarstig. Eén verkeerde keuze in tooling of distributie kan direct pijn doen in bereik of inkomsten.
Voor familieseries en kindermerken, zoals die van Studio 100, telt extra zorg. De merkbeleving moet kloppen in elk land en op elk scherm. Automatische vertaling, nasynchronisatie en korte clips kunnen helpen, maar fouten vallen snel op. Dat kan reputatieschade geven die lastig te herstellen is.
Ook de concurrentie om aandacht is fel. Platforms als YouTube en TikTok sturen kijkstromen met aanbevelingsalgoritmen. Kleine wijzigingen in die systemen hebben grote gevolgen voor zichtbaarheid. Wie daar niet op anticipeert, merkt dat meteen in cijfers.
AI in kindercontent is lastig
Kunstmatige intelligentie kan dialogen vertalen, stemmen klonen en beelden opschalen. Generatieve AI is software die nieuwe tekst, beeld of audio maakt op basis van voorbeelddata. Voor kindercontent zijn de eisen extra streng. AVG-regels over minderjarigen, toestemming en dataminimalisatie wegen zwaarder dan bij volwassenendoelgroepen.
Merken met herkenbare stemmen en liedjes lopen risico op misbruik. Deepfakes en ongeautoriseerde remixes kunnen opduiken, ook met tools als voice-cloning software. Snelle detectie en een meldkanaal zijn dan cruciaal. Een slecht gecureerde AI-clip kan ouders afschrikken en partners laten twijfelen.
Techniek werkt niet altijd zoals beloofd. Automatische ondertitels missen woordgrappen. Stemklonen klinken soms hol of onnatuurlijk. En vertaalmodellen raken culturele verwijzingen kwijt. Een kwaliteitscontrole door mensen blijft nodig, zeker bij educatieve of peutercontent.
AI-verordening verandert spelregels
De Europese AI-verordening (AI Act) legt nieuwe plichten op voor aanbieders en gebruikers van AI-systemen. Generatieve modellen moeten duidelijk maken dat content door een algoritme is gemaakt of aangepast. Voor deepfakes geldt een labelplicht. Dit raakt mediabedrijven die AI inzetten voor montage, beeldbewerking of stemwerk.
De Digital Services Act (DSA) verplicht grote platforms tot meer transparantie over aanbevelingen. Dat helpt uitgevers begrijpen waarom content wel of niet wordt getoond. Tegelijk blijft het risico dat een kleine platformwijziging bereik schaadt. Strategische afhankelijkheid van enkele distributiekanalen blijft dus een zwak punt.
De AVG blijft leidend bij gegevens van kijkers en kinderen. Dataminimalisatie, versleuteling en heldere opt-ins zijn nodig bij personalisatie of meetpixels. Overtredingen kunnen hoge boetes opleveren. Voor producenten is het slim om privacy-by-design op te nemen in alle AI-pilots.
Auteursrecht en trainingsdata
De EU-richtlijn auteursrecht (DSM-richtlijn) staat tekst- en datamining toe, maar rechthebbenden mogen een TDM-reservering plaatsen. Eigenaren van kindercontent kunnen zo training op hun muziek en beelden beperken. Dit beschermt merken en muziekcatalogi. Het vraagt wel duidelijk rechtenbeheer en technische blokkades.
Licentieafspraken met AI-aanbieders worden belangrijker. Denk aan voorwaarden voor gebruik van stemvoorbeelden, scripts en logo’s. Zonder heldere contracten kan een datamodel ongewenst stijlen of stemmen nabootsen. Dat is juridisch en qua reputatie riskant.
Watermerken en content-hashing helpen bij handhaving. Zo kunnen ongeautoriseerde AI-varianten sneller worden opgespoord op platforms. In combinatie met de DSA-meldplichten kan dit misbruik terugdringen. Het is geen wondermiddel, maar wel een praktische drempel.
Nederland en Vlaanderen scherpen beleid
Omroepen en uitgevers in Nederland en Vlaanderen testen AI met strikte redactierichtlijnen. Tools zoals GPT-4o van OpenAI, Google Gemini en Meta Llama 3 worden gebruikt voor vertaal- en researchtaken, met menselijk toezicht. Op het moment van schrijven zetten redacties ze vooral in als assistent, niet als eindmaker. Zo blijft controle op toon, feiten en cultuur.
VRT, NPO en commerciële groepen werken aan labeling van AI-gegenereerde onderdelen. Dat maakt duidelijk wat door mensen en wat door een systeem is gedaan. Het voorkomt misleiding en bouwt vertrouwen op bij kijkers. Bij kindercontent is die transparantie extra belangrijk.
Opleiding en tooling gaan hand in hand. Teams krijgen trainingen over bias en foutkansen in modellen. Redacties leggen vast wanneer AI niet mag worden gebruikt, bijvoorbeeld bij gevoelige onderwerpen of kinderprofielen. Dat beperkt risico’s zonder innovatie stil te zetten.
Gevolgen voor kijkers en ouders
Kijkers merken meer en snellere lokalisatie: dubbing, ondertitels en korte clips. Personalisatie kan beter aansluiten bij leeftijd en taal. Maar daarvoor is toestemming nodig en moet dataverwerking zuinig en veilig gebeuren. Bedrijven moeten dat helder uitleggen.
AI-labels bij video’s en liedjes worden gebruikelijk. Een korte melding volstaat: “Deze scène is deels met AI bewerkt.” Dat voorkomt verwarring en voldoet aan de AI Act. Bij klachten moet het meldproces snel en vriendelijk zijn, zeker voor ouders.
De “serieuze tegenvaller” laat zien dat AI geen snelle winstmachine is. Succes vraagt keuzes in techniek, rechten en ethiek. Wie dat goed regelt, vergroot de kans op stabiel bereik op Europese platforms. En houdt vertrouwen bij publiek en partners.
Generatieve AI: software die nieuwe tekst, beelden of audio maakt op basis van voorbeelden; handig voor vertalen en bewerken, maar foutgevoelig en niet waardenvrij.

