• Home
  • /
  • Blog
  • /
  • Nieuws
  • /
  • Studio100-topman Hans Bourlon over AI: ‘Dat was een serieuze tegenvaller’
Artikel afbeelding 12

Door Dave

april 12, 2026

De Belgische mediatopman Hans Bourlon, medeoprichter van Studio 100, sprak deze week openlijk over een “serieuze tegenvaller” rond digitale innovatie. Het gaat om keuzes bij de inzet van nieuwe technologie, waaronder kunstmatige intelligentie. De opmerkingen kwamen in Vlaanderen, waar Studio 100 actief is met tv, muziek en pretparken. De kwestie raakt ook Nederland en Europa, waar strengere regels voor AI en platforms gelden.

Studio 100 voelt de druk

Mediabedrijven staan onder druk van veranderende kijkgewoonten en platformalgoritmen. Aanbod moet sneller, goedkoper en in meer talen online kunnen. AI lijkt daarbij handig, maar de praktijk is weerbarstig. Eén verkeerde keuze in tooling of distributie kan direct pijn doen in bereik of inkomsten.

Voor familieseries en kindermerken, zoals die van Studio 100, telt extra zorg. De merkbeleving moet kloppen in elk land en op elk scherm. Automatische vertaling, nasynchronisatie en korte clips kunnen helpen, maar fouten vallen snel op. Dat kan reputatieschade geven die lastig te herstellen is.

Ook de concurrentie om aandacht is fel. Platforms als YouTube en TikTok sturen kijkstromen met aanbevelingsalgoritmen. Kleine wijzigingen in die systemen hebben grote gevolgen voor zichtbaarheid. Wie daar niet op anticipeert, merkt dat meteen in cijfers.

AI in kindercontent is lastig

Kunstmatige intelligentie kan dialogen vertalen, stemmen klonen en beelden opschalen. Generatieve AI is software die nieuwe tekst, beeld of audio maakt op basis van voorbeelddata. Voor kindercontent zijn de eisen extra streng. AVG-regels over minderjarigen, toestemming en dataminimalisatie wegen zwaarder dan bij volwassenendoelgroepen.

Merken met herkenbare stemmen en liedjes lopen risico op misbruik. Deepfakes en ongeautoriseerde remixes kunnen opduiken, ook met tools als voice-cloning software. Snelle detectie en een meldkanaal zijn dan cruciaal. Een slecht gecureerde AI-clip kan ouders afschrikken en partners laten twijfelen.

Techniek werkt niet altijd zoals beloofd. Automatische ondertitels missen woordgrappen. Stemklonen klinken soms hol of onnatuurlijk. En vertaalmodellen raken culturele verwijzingen kwijt. Een kwaliteitscontrole door mensen blijft nodig, zeker bij educatieve of peutercontent.

AI-verordening verandert spelregels

De Europese AI-verordening (AI Act) legt nieuwe plichten op voor aanbieders en gebruikers van AI-systemen. Generatieve modellen moeten duidelijk maken dat content door een algoritme is gemaakt of aangepast. Voor deepfakes geldt een labelplicht. Dit raakt mediabedrijven die AI inzetten voor montage, beeldbewerking of stemwerk.

De Digital Services Act (DSA) verplicht grote platforms tot meer transparantie over aanbevelingen. Dat helpt uitgevers begrijpen waarom content wel of niet wordt getoond. Tegelijk blijft het risico dat een kleine platformwijziging bereik schaadt. Strategische afhankelijkheid van enkele distributiekanalen blijft dus een zwak punt.

De AVG blijft leidend bij gegevens van kijkers en kinderen. Dataminimalisatie, versleuteling en heldere opt-ins zijn nodig bij personalisatie of meetpixels. Overtredingen kunnen hoge boetes opleveren. Voor producenten is het slim om privacy-by-design op te nemen in alle AI-pilots.

Auteursrecht en trainingsdata

De EU-richtlijn auteursrecht (DSM-richtlijn) staat tekst- en datamining toe, maar rechthebbenden mogen een TDM-reservering plaatsen. Eigenaren van kindercontent kunnen zo training op hun muziek en beelden beperken. Dit beschermt merken en muziekcatalogi. Het vraagt wel duidelijk rechtenbeheer en technische blokkades.

Licentieafspraken met AI-aanbieders worden belangrijker. Denk aan voorwaarden voor gebruik van stemvoorbeelden, scripts en logo’s. Zonder heldere contracten kan een datamodel ongewenst stijlen of stemmen nabootsen. Dat is juridisch en qua reputatie riskant.

Watermerken en content-hashing helpen bij handhaving. Zo kunnen ongeautoriseerde AI-varianten sneller worden opgespoord op platforms. In combinatie met de DSA-meldplichten kan dit misbruik terugdringen. Het is geen wondermiddel, maar wel een praktische drempel.

Nederland en Vlaanderen scherpen beleid

Omroepen en uitgevers in Nederland en Vlaanderen testen AI met strikte redactierichtlijnen. Tools zoals GPT-4o van OpenAI, Google Gemini en Meta Llama 3 worden gebruikt voor vertaal- en researchtaken, met menselijk toezicht. Op het moment van schrijven zetten redacties ze vooral in als assistent, niet als eindmaker. Zo blijft controle op toon, feiten en cultuur.

VRT, NPO en commerciële groepen werken aan labeling van AI-gegenereerde onderdelen. Dat maakt duidelijk wat door mensen en wat door een systeem is gedaan. Het voorkomt misleiding en bouwt vertrouwen op bij kijkers. Bij kindercontent is die transparantie extra belangrijk.

Opleiding en tooling gaan hand in hand. Teams krijgen trainingen over bias en foutkansen in modellen. Redacties leggen vast wanneer AI niet mag worden gebruikt, bijvoorbeeld bij gevoelige onderwerpen of kinderprofielen. Dat beperkt risico’s zonder innovatie stil te zetten.

Gevolgen voor kijkers en ouders

Kijkers merken meer en snellere lokalisatie: dubbing, ondertitels en korte clips. Personalisatie kan beter aansluiten bij leeftijd en taal. Maar daarvoor is toestemming nodig en moet dataverwerking zuinig en veilig gebeuren. Bedrijven moeten dat helder uitleggen.

AI-labels bij video’s en liedjes worden gebruikelijk. Een korte melding volstaat: “Deze scène is deels met AI bewerkt.” Dat voorkomt verwarring en voldoet aan de AI Act. Bij klachten moet het meldproces snel en vriendelijk zijn, zeker voor ouders.

De “serieuze tegenvaller” laat zien dat AI geen snelle winstmachine is. Succes vraagt keuzes in techniek, rechten en ethiek. Wie dat goed regelt, vergroot de kans op stabiel bereik op Europese platforms. En houdt vertrouwen bij publiek en partners.

Generatieve AI: software die nieuwe tekst, beelden of audio maakt op basis van voorbeelden; handig voor vertalen en bewerken, maar foutgevoelig en niet waardenvrij.

Over de schrijver 

Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

Meer lezen

28/04/2026 21:52

Op de Corda Campus in Hasselt (Belgisch Limburg) is deze week een nieuwe supercomputer aangekondigd. Het systeem moet bedrijven en onderzoekers helpen om kunstmatige intelligentie lees verder

Corda Campus krijgt supercomputer om Limburg voorsprong in AI-race te geven

28/04/2026 21:02

Adobe heeft Semrush overgenomen. Met deze strategische zet speelt het softwarebedrijf in op een snel veranderend internetlandschap, waarin AI-systemen zoals chatbots en AI-zoekresultaten een steeds lees verder

Adobe neemt Semrush over en richt zich op zichtbaarheid in AI-systemen

28/04/2026 19:49

Mistral AI, de Franse start-up uit Parijs, lanceert Workflows voor bedrijven. De nieuwe functie laat teams AI-taken bouwen, testen en veilig uitvoeren. Het systeem richt lees verder

Mistral AI lanceert Workflows: wat betekent dit voor enterprise-AI?
>