De Franse studio Sandfall Interactive raakte deze week meerdere prijzen kwijt voor de RPG Clair Obscur: Expedition 33. De organisatie van een internationale game-awardshow trok de onderscheidingen in, nadat bleek dat het team generatieve AI had gebruikt. Het ging om AI in het creatieve proces rond de game. De beslissing voedt de discussie over regels voor AI in de Europese game-industrie.
Studio erkent AI-gebruik
Sandfall Interactive bevestigde dat er generatieve AI is ingezet tijdens de ontwikkeling van Clair Obscur: Expedition 33. De studio maakte op het moment van schrijven niet bekend welke tools of modellen zijn gebruikt. Ook is niet publiek gemaakt op welke onderdelen van het project AI is toegepast. De uitgever is Kepler Interactive, die de game internationaal op de markt brengt.
Generatieve AI is software die op basis van bestaande data nieuwe beelden, tekst of audio maakt. Teams gebruiken dit vaak om sneller te werken of kosten te verlagen. Dat kan nuttig zijn, maar roept vragen op over herkomst van trainingsdata en auteursrecht. Wanneer dit niet duidelijk is, kan het vertrouwen van publiek en juryās snel dalen.
De bekendmaking leidde tot kritiek in de gamegemeenschap. Makers en spelers vragen om transparantie over waar AI is ingezet. Zeker bij prijzen, waar originaliteit en vakmanschap worden beoordeeld, vindt men dat AI-gebruik vooraf gemeld moet worden. Zonder die melding voelt de competitie niet eerlijk aan.
Generatieve AI maakt nieuwe content op basis van grote hoeveelheden bestaande voorbeelden, zoals afbeeldingen, teksten of stemmen.
Prijsregels en eerlijkheid
Steeds meer game-evenementen hanteren regels voor AI-gebruik in inzendingen. Vaak moeten studioās vooraf aangeven of er AI-content is gebruikt, of die content is gelicenseerd en door wie die is gemaakt. In dit geval besloot de organisator de eerder toegekende prijzen terug te draaien. Daarmee wil men de speelveld eerlijk houden voor teams die volledig met menselijk werk meedingen.
Juryās beoordelen doorgaans originaliteit, uitvoering en artistieke richting. AI kan die beoordeling vertroebelen als niet duidelijk is welke delen door mensen zijn gemaakt. Ontbrekende disclosure kan het oordeel van de jury achteraf ondermijnen. Intrekken van prijzen is dan een zwaar, maar voor organisatoren soms onvermijdelijk middel.
Voor Europese evenementen, zoals Gamescom of nationale prijzen in Nederland, worden AI-voorwaarden snel strenger. Organisaties voegen expliciete vragen over AI toe aan aanmeldformulieren. Ook wordt documentatie gevraagd over licenties en rechten. Het incident rond Clair Obscur zal die trend waarschijnlijk versnellen.
AI-verordening eist transparantie
De Europese AI-verordening (AI Act) legt producenten van generatieve systemen transparantieplichten op. Zo moeten aanbieders duidelijk maken dat content door AI is gemaakt en welke beperkingen gelden. Deze plichten worden gefaseerd van kracht vanaf 2025ā2026, op het moment van schrijven. Voor creatieve sectoren betekent dit: tijdig processen inrichten voor labeling en documentatie.
Daarnaast gelden in Europa regels tegen oneerlijke handelspraktijken. Wie AI-content gebruikt in marketing of productpresentatie, moet misleiding voorkomen en informatie niet achterhouden. Prijsorganisaties mogen bovendien strengere eisen stellen dan de wet, bijvoorbeeld verplichte AI-disclosure. Dat geeft juryās een basis om inzendingen te toetsen en zo nodig uit te sluiten.
Als bij ontwikkeling persoonsgegevens zijn gebruikt, speelt ook de AVG. Dan zijn principes als dataminimalisatie en beveiliging verplicht. Studioās moeten kunnen aantonen welke data zijn gebruikt en met welke rechtsgrond. Zonder deze basis lopen zij juridische en reputatierisicoās.
Juridische en creatieve risicoās
AI-modellen worden vaak getraind op grote datasets met mogelijk beschermd werk. Dat kan leiden tot auteursrechtelijke claims als output te veel lijkt op bronmateriaal. In de EU bestaan text- en datamining-excepties, maar rechthebbenden mogen zich afmelden. Studios die hier geen zicht op hebben, nemen een moeilijk te beheren risico.
Er zijn ook zorgen over de waarde van artistiek werk. Illustratoren, schrijvers en stemacteurs vrezen dat AI hun werk vervangt of afwaardeert. Transparantie en duidelijke crediting kunnen een deel van die spanning wegnemen. Veel studioās kiezen daarom voor interne richtlijnen: AI mag ondersteunen, maar niet vervangen zonder toestemming en bronvermelding.
Reputatie speelt een grote rol bij creatieve projecten. Een ingetrokken prijs schaadt vertrouwen bij spelers, partners en fondsen. Dat kan publiciteit rond een release overschaduwen en samenwerkingen onder druk zetten. Heldere communicatie en herziening van processen zijn dan cruciaal.
Spelers willen duidelijke labels
Voor consumenten in Europa groeit de wens om te weten waar AI aan te pas is gekomen. Labeling van AI-content in games, marketing en trailers helpt verwachtingen te managen. Platformen scherpen hun regels aan en vragen om bewijs van rechten en disclosure. Dat maakt het speelveld voorspelbaarder voor kopers.
Recensenten en juryās kijken steeds meer naar herkomst en maakproces. Niet om AI per definitie te weren, maar om eerlijk te kunnen vergelijken. Een transparante methode, inclusief vermelding van gebruikte systemen, helpt daarbij. Zo kunnen prijzen vakmanschap blijven belonen.
Voor Nederlandse studioās en opleidingen is dit een kans om voorop te lopen met heldere AI-richtlijnen. Subsidiegevers en cultuurfondsen vragen steeds vaker om verantwoorde inzet van algoritmen. Wie dat goed regelt, voorkomt problemen zoals bij Clair Obscur: Expedition 33. En het versterkt het vertrouwen van spelers en partners.
