De Indie Game Awards hebben de RPG Clair Obscur: Expedition 33 uitgesloten na kritiek op het gebruik van generatieve AI. De game is van de Franse studio Sandfall Interactive en wordt uitgegeven door Kepler Interactive. De diskwalificatie werd deze week bevestigd door de organisatie achter de prijs. Aanleiding is een online discussie over mogelijke AI-gegenereerde beelden in het ontwikkel- of promotiemateriaal.
Prijs diskwalificeert Franse RPG
Clair Obscur: Expedition 33 is uitgesloten van deelname aan de Indie Game Awards. Het gaat om een turn-based RPG van Sandfall Interactive, een studio uit Frankrijk, met Kepler Interactive als uitgever. De organisatie verwijst naar regels over originaliteit en eerlijkheid in de competitie.
De stap volgt na publieke vragen over de inzet van generatieve AI in aan de game gelinkt materiaal. De discussie draaide niet om de speelbaarheid, maar om de herkomst van beelden en teksten. Daarmee verschuift de aandacht van gameplay naar productieprocessen.
Op het moment van schrijven is de game nog niet verschenen. De uitsluiting raakt vooral het marketing- en prijzenparcours rond de release. Voor een indie-positie is zichtbaarheid via prijzen belangrijk, waardoor dit besluit voor de studio strategische gevolgen kan hebben.
Discussie over generatieve AI-gebruik
In de gamewereld groeit de gevoeligheid voor AI-gegenereerde assets, zoals concept art of promobeelden. Fans en makers willen weten of werk door mensen is gemaakt of door een algoritme. Onzekerheid daarover kan het vertrouwen schaden, zeker bij prijzen die originaliteit beoordelen.
Generatieve AI is software die nieuwe inhoud maakt op basis van voorbeelddata. Dat kan efficiƫnt zijn, maar roept vragen op over auteursrecht, transparantie en concurrentie met menselijke makers. Zonder duidelijke duiding blijft onduidelijk waar de grens ligt tussen hulpmiddel en vervanging.
Generatieve AI maakt nieuwe tekst, beeld of audio op basis van grote hoeveelheden voorbeelddata en statistische patronen.
De ontwikkelaar en uitgever hebben publiek debat over hun workflow gekregen, terwijl details vaak contractueel of technisch complex zijn. Dat belemmert een snelle, eenduidige uitleg. In korte tijd escaleert zoān discussie van nuance naar reputatierisicoās.
Regels blijven onduidelijk
Veel prijzen en festivals werken aan beleid voor AI, maar hanteren nog verschillende definities. Wanneer is AI een acceptabel hulpmiddel, en wanneer ondermijnt het de competitie? Het ontbreken van uniforme standaarden zorgt voor frictie tussen juryās, studios en publiek.
Controle op AI-gebruik is bovendien lastig. Beeldsporen zijn niet altijd zichtbaar, en modellen laten zich moeilijk herleiden tot hun brondata. Dat maakt bewijsvoering en handhaving complex, zeker bij internationale inzendingen.
De zaak rond Clair Obscur toont dat organisatoren sneller kiezen voor voorzorg om reputatieschade te voorkomen. Dat kan begrijpelijk zijn, maar vraagt om heldere criteria vooraf. Anders blijft de grens per geval verschuiven.
Europese regels vragen transparantie
De Europese AI-verordening (AI Act) legt op het moment van schrijven transparantieplichten op voor generatieve systemen. Makers moeten duidelijk maken dat inhoud door AI is gegenereerd en waar relevant technische documentatie bijhouden. Voor culturele prijzen is dat geen directe wet, maar het zet wel de norm.
Ook het auteursrecht en de AVG spelen mee als trainingsdata beschermd of persoonlijk zijn. Dataminimalisatie en duidelijke herkomstinformatie worden belangrijker, ook in marketing. Organisaties die inzendingen beoordelen, zullen vaker om bewijs van menselijke maakbaarheid vragen.
Voor Nederlandse instellingen en festivals betekent dit dat selectiecriteria moeten aansluiten op EU-regels. Heldere disclaimers en labeling helpen misverstanden te voorkomen. Dat maakt het proces eerlijker voor makers Ʃn publiek.
Gevolgen voor studios en spelers
Studios die AI als hulpmiddel gebruiken, zullen hun workflow moeten documenteren. Denk aan versiebeheer, bronvermelding en interne audits om aan te tonen wat door mensen is gemaakt. Dat kost tijd, maar voorkomt discussie achteraf.
Voor uitgevers wordt due diligence in marketing belangrijker. Promobeelden en trailers moeten controleerbaar zijn, inclusief labeling bij AI-gebruik. Zo verklein je het risico op uitsluiting bij prijzen en platforms.
Spelers krijgen mogelijk meer transparantie over de maakwijze van games en campagnes. Dat kan vertrouwen herstellen in een tijd van snelle automatisering. Tegelijk blijft de vraag actueel hoe ver algoritmen mogen gaan zonder menselijke creativiteit weg te drukken.
Signaal aan de game-industrie
De diskwalificatie van Clair Obscur: Expedition 33 is een duidelijk signaal aan ontwikkelaars en uitgevers. Transparantie over inzet van datamodellen en systemen wordt niet alleen juridisch, maar ook cultureel afgedwongen. Wie prijzen en zichtbaarheid zoekt, zal zijn proces moeten openleggen.
De sector beweegt richting strengere zelfregulering, in lijn met de Europese AI-verordening. Eenduidige definities en technische tooling, zoals watermerken of contentlabels, kunnen daarbij helpen. Tot die tijd blijft het risico bestaan dat een project in de eindfase alsnog buiten de boot valt.
Voor Europese studios biedt dit ook een kans. Wie vroeg duidelijke richtlijnen hanteert, kan zich onderscheiden met betrouwbare, mensgemaakte content. Dat is een concurrentievoordeel in een markt waar vertrouwen steeds zeldzamer is.
