Het Japanse gamebedrijf PocketPair, maker van Palworld, neemt afstand van kunstmatige intelligentie in gameproductie. De studio zegt dat het voortaan geen games zal uitgeven waarin AI is gebruikt. De aankondiging werd onlangs gedaan vanuit Japan, zonder een datum voor mogelijke uitzonderingen. Het besluit raakt ook aan de Europese AI-verordening en de AVG, die gevolgen hebben voor uitgevers en overheid bij inzet van algoritmen.
PocketPair wijst AI af
PocketPair stelt dat het geen spellen zal uitgeven waarbij AI een rol heeft gespeeld in de ontwikkeling. Het gaat dan om toepassingen zoals tekst- en beeldgeneratie, stemklonen of code-assistenten. Kunstmatige intelligentie is software die leert van grote hoeveelheden data en zelfstandig resultaten oplevert.
De studio is op het moment van schrijven vooral bekend van Palworld, een populaire survivalgame. In de game-industrie gebruiken sommige teams al generatieve systemen, bijvoorbeeld large language models zoals GPT-4 of beeldgeneratoren als Stable Diffusion. PocketPair kiest duidelijk voor een andere koers.
We gaan geen games uitgeven waar kunstmatige intelligentie is gebruikt.
Die houding wijkt af van een groeiende praktijk in de sector. AI-tools worden vaak ingezet om conceptkunst, achtergrondassets en prototypes sneller te maken. PocketPair legt de nadruk op menselijke creatie en controle in het ontwikkelproces.
Redenen en risicoās bij AI
Een mogelijke reden is het auteursrecht rond trainingsdata van modellen. Niet altijd is duidelijk of beeld- en audiomateriaal rechtmatig is gebruikt om een model te trainen. Dat kan juridische risicoās geven voor een uitgever die een game in de markt zet.
Er spelen ook reputatie- en arbeidsaspecten. Makers, stemacteurs en vertalers vrezen verdringing door synthetische content. Een strikt beleid kan vertrouwen opbouwen bij spelers en bij creatieve partners in Europa, waar de culturele sector scherp let op rechten en fair pay.
Daarnaast is er de kwaliteit van AI-uitvoer. Generatieve modellen kunnen fouten maken of inconsistent zijn en vragen extra controle. Zonder heldere bronherkomst is herstel bij klachten of claims lastig en kostbaar.
Europese AI-verordening raakt games
De Europese AI-verordening (AI Act) is aangenomen en treedt gefaseerd in werking vanaf 2025. Voor generatieve modellen gelden transparantieplichten, zoals documentatie over trainingsdata en risicobeperking. Inhoud die mensen kan misleiden, bijvoorbeeld deepfakes, moet duidelijk als synthetisch herkenbaar zijn.
Games vallen meestal niet in de hoge-risicoklassen, maar AI-gesynthetiseerde beelden, stemmen of marketingmateriaal kunnen wel onder de transparantie-eisen vallen. Uitgevers die in de EU distribueren moeten daarom goed vastleggen of en waar AI is gebruikt. Dat sluit aan bij PocketPairs keuze om AI-content te mijden.
Ook de AVG blijft relevant wanneer persoonlijke data worden gebruikt om modellen te trainen, zoals stemmen of gezichten. Dan spelen dataminimalisatie, doelbinding en beveiliging een rol. Bij schendingen kunnen toezichthouders in EU-lidstaten, waaronder Nederland, boetes opleggen.
Gevolgen voor ontwikkelaars en spelers
Voor studioās die met PocketPair willen samenwerken kan dit beleid betekenen dat zij aantoonbaar zonder AI-tools werken. Contracten kunnen garanties, audits of certificaten eisen over de herkomst van assets. Standaarden voor herkomst, zoals C2PA voor content-provenance van onder meer Adobe en Microsoft, kunnen daarbij helpen.
Spelers kunnen een duidelijker beeld krijgen van hoe een game is gemaakt. Dat kan vertrouwen geven bij kunst, stemmen en verhaallijnen. Tegelijk kan een streng AI-verbod de productie trager maken en kosten verhogen, wat invloed heeft op releaseschemaās.
In Nederland en de EU kan deze keuze als referentie dienen voor andere uitgevers. Bedrijven die wel AI willen inzetten, moeten transparantie en rechtenbeheer strak organiseren. Wie AI vermijdt, heeft minder nalevingslast onder de AI-verordening, maar ook minder automatiseringsvoordelen.

