OpenAI trekt stekker uit Sora-videotool — wat betekent dit voor AI-video?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • OpenAI trekt stekker uit Sora-videotool — wat betekent dit voor AI-video?

Amsterdam, 1 april 2026 14:59 

OpenAI stopt deze week met Sora, de tool die tekst automatisch omzet in video. Het Amerikaanse bedrijf zegt middelen te verplaatsen en benadrukt zorgen over misbruik en veiligheid. De stap raakt makers en bedrijven in Europa en scherpt het debat over Europese AI-verordening gevolgen overheid en media. Sora kwam niet breder beschikbaar dan beperkte tests.

OpenAI stopt met Sora

Sora was een zogenoemd text-to-video model: software die op basis van een tekstbeschrijving zelf een video maakt. OpenAI hield het systeem maandenlang in een kleine proef met veiligheids­experts en enkele makers. Een brede lancering bleef uit. Nu trekt het bedrijf de stekker uit het project.

Met het besluit komen geplande uitbreidingen en een publieke introductie te vervallen. OpenAI verschuift capaciteit naar andere multimodale toepassingen, zoals beeld en spraak binnen ChatGPT. Het bedrijf noemt daarnaast de noodzaak om veiligheids­maatregelen verder te ontwikkelen. Daarmee geeft het prioriteit aan risicobeperking boven snelle groei.

Gebruikers die wachtten op toegang krijgen die niet meer. Ook voor ontwikkelaars komt er geen API of zakelijke versie van Sora. Bedrijven die pilots overwogen, moeten hun plannen herzien. Dat vergroot de ruimte voor bestaande alternatieven in de markt.

Veiligheid en misbruik centraal

Videogeneratie vergroot het risico op deepfakes: geloofwaardige nepvideo’s die mensen kunnen misleiden. Dat gevaar speelt bij verkiezingen, financiële fraude en reputatieschade. OpenAI testte Sora met zogenoemde “red teams”. Dat zijn groepen die proberen systemen te laten ontsporen om zwaktes te vinden.

Het bedrijf werkte aan technieken als watermerken, een soort onzichtbare stempel in beeld. Zo moet publiek kunnen zien dat een video door een algoritme is gemaakt. Ook werden filters ingezet om verboden inhoud te blokkeren. Toch bleef de kans op misbruik aanwezig.

De beslissing past in een voorzichtige trend bij grote AI-bedrijven. Eerst veiligheid, dan schaalvergroting. Bij video ligt de drempel hoger dan bij tekst of plaatjes. De maatschappelijke impact is groter en fouten zijn zichtbaarder.

Deepfakes zijn synthetische video’s die echt lijken, maar door algoritmen zijn gemaakt. Ze kunnen mensen of gebeurtenissen nabootsen zonder dat dit is gebeurd.

Kosten en techniek wegen zwaar

Video genereren kost veel rekenkracht. Dat maakt de prijs per video hoog en de wachttijden lang. Voor zakelijke inzet is juist snelheid en voorspelbaarheid nodig. Dat wringt zolang de techniek nog onstabiel is.

Daarnaast blijft video een lastig domein voor algoritmen. Lange scènes, complexe bewegingen en natuurkundige regels leveren snel fouten op. Artefacten, zoals vreemde objecten of schokkerige bewegingen, tasten de bruikbaarheid aan. Dat beperkt directe toepasbaarheid in professionele producties.

De concurrentie is ook stevig. Bedrijven als Runway, Pika en Luma schuiven snel op met nieuwe versies. Google toonde met Veo eveneens geavanceerde voorbeelden. Voor OpenAI werd de afweging tussen kwaliteit, kosten en snelheid steeds zwaarder.

Europese AI-verordening gevolgen

In Europa geldt op het moment van schrijven de nieuwe AI-verordening (AI Act) met plichten voor generatieve systemen. Aanbieders moeten risico’s in kaart brengen, misbruik beperken en AI-gegenereerde media herkenbaar maken. Dat betekent duidelijke labels en, waar mogelijk, technische watermerken. Bedrijven die dit niet regelen kunnen boetes krijgen.

Voor overheden en publieke instellingen zijn de gevolgen concreet. Inkoop moet toetsen of leveranciers voldoen aan transparantie en risicobeheer. Ook bij voorlichting en onderwijs zijn waarschuwingen en bronvermelding nodig wanneer synthetische beelden worden gebruikt. Dit raakt communicatieafdelingen, archieven en IT-beheer.

Daarnaast speelt de AVG bij trainingsdata met video en audio. Organisaties moeten rechtmatige grondslagen en dataminimalisatie kunnen aantonen. Makers en omroepen in Nederland letten extra op auteursrechten en portretrecht. Juridische duidelijkheid is een belangrijke randvoorwaarde voor brede inzet.

Effect op Nederlandse makers

Voor Nederlandse studio’s, bureaus en mediabedrijven valt een verwachte optie weg. Zij wijken uit naar bestaande tools of kiezen voor hybride werkprocessen. Denk aan eerst storyboarden met beeldmodellen zoals DALL·E en daarna filmen of animeren. Dat bewaakt kwaliteit en rechten, maar kost meer tijd.

Omroepen, gemeenten en onderwijsinstellingen blijven voorzichtig met synthetische video. Zij moeten publieksvertrouwen behouden en desinformatie voorkomen. Heldere labeling en interne richtlijnen zijn daarbij cruciaal. Veel organisaties testen daarom alleen in afgeschermde omgevingen.

Professionele gebruikers letten vooral op herkomstinformatie. Een praktische eis is ondersteuning voor Content Credentials (C2PA), een standaard om te tonen hoe media is gemaakt. Ook afspraken over dataopslag en verwijdering zijn nodig. Dat maakt de keuze voor leveranciers strenger.

OpenAI herijkt zijn focus

OpenAI concentreert zich nu meer op functies binnen ChatGPT en op beeld met DALL·E. Het bedrijf zet in op multimodale assistenten die tekst, spraak en plaatjes combineren. Daarbij horen strengere veiligheidslagen en duidelijke herkomstlabels. De ervaring met Sora kan daarbij nuttig blijven, ook zonder productlancering.

Voor gebruikers verandert vooral de route naar AI-video. In plaats van één grote tool lijkt de markt te bewegen naar meerdere, specifieke diensten. Integraties in montagepakketten en contentplatforms winnen terrein. Dat sluit aan bij bestaande werkstromen in media en reclame.

Voor Europa geldt dat wetgeving en techniek hand in hand blijven gaan. De lat voor betrouwbare, traceerbare AI-content ligt hoog. Door Sora te stoppen kiest OpenAI voor voorzichtigheid. De vraag blijft wie als eerste video op grote schaal wél veilig en betaalbaar krijgt.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

>