Time benoemt kunstmatige intelligentie tot Persoon van het Jaar — en nu?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Time benoemt kunstmatige intelligentie tot Persoon van het Jaar — en nu?

Amsterdam, 11 december 2025 15:43 

Het Amerikaanse tijdschrift Time heeft kunstmatige intelligentie uitgeroepen tot ‘Persoon van het Jaar’. De redactie kiest daarmee voor een technologie in plaats van een individu. De keuze volgt na een jaar waarin systemen zoals ChatGPT en Gemini veel aandacht kregen. De stap raakt ook Europa, waar de Europese AI-verordening gevolgen voor overheid en bedrijven heeft.

Time kiest voor AI

Time benadrukt dat algoritmen dit jaar bepalend waren voor economie, cultuur en politiek. De keuze gaat om het fenomeen kunstmatige intelligentie, niet om één ontwikkelaar of bedrijf. Daarmee onderstreept het blad hoe breed de technologie inmiddels wordt gebruikt. Van klantenservice tot softwareontwikkeling en van media tot zorg.

Het magazine koos eerder al vaker voor een groep of idee in plaats van een persoon. In 2006 was dat ‘You’, en in 1982 kreeg ‘The Computer’ een eigen erkenning als ‘Machine of the Year’. Dit jaar ligt de nadruk op generatieve systemen die tekst, beeld, audio en code maken. Zulke modellen kregen in 2024 en 2025 grote updates en bereikten een massapubliek.

Generatieve AI is software die nieuwe inhoud maakt op basis van voorbeelddata. De bekendste diensten zijn ChatGPT van OpenAI, Gemini van Google, Claude van Anthropic en Llama van Meta. Deze tools verschenen in apps, browsers en kantoorsoftware. Daardoor voelde de impact voor veel mensen directer dan bij eerdere technologische golven.

De keuze van Time is ook een signaal naar beleidsmakers. Overheden worstelen met tempo, regels en handhaving. Bedrijven zoeken balans tussen productiviteit en risico’s als fouten, bias en schending van auteursrechten. Dat spanningsveld bepaalt de discussie in 2025.

AI is software die patronen in data leert en daarmee teksten, beelden, audio of beslissingen kan genereren.

AI Act bepaalt grenzen

De Europese AI-verordening (AI Act) zet een risicogebaseerd kader neer. Onaanvaardbare toepassingen, zoals sociale scoring door overheden, worden verboden. Hoge-risicosystemen, bijvoorbeeld in zorg, onderwijs of werving, krijgen strenge eisen voor datakwaliteit, transparantie en menselijk toezicht. Voor generatieve “algemene” modellen komen extra plichten zoals informatie over trainingsdata en het labelen van deepfakes.

Voor de overheid zijn de gevolgen groot; denk aan aanbestedingen, documentatie en toezicht. De verplichtingen lopen gefaseerd in, met start van delen van de verordening vanaf 2025. Overheidscommunicatie met synthetische media moet herkenbaar zijn als kunstmatig gegenereerd. Dit raakt bijvoorbeeld gemeenten die virtuele assistenten of tekstgeneratoren inzetten.

Privacyregels blijven onverkort gelden via de AVG. Dataminimalisatie, versleuteling en DPIA’s (risicoanalyses) zijn nodig voordat een systeem live gaat. Voor trainingsdata betekent dit: alleen noodzakelijke gegevens gebruiken en herleidbare persoonsgegevens beschermen. Dat geldt ook als een organisatie externe modellen via een API gebruikt.

Handhaving komt via nationale toezichthouders en een nieuw Europees AI Office binnen de Europese Commissie. Boetes kunnen oplopen tot een fors percentage van de wereldwijde omzet. Organisaties moeten dus nu al inventariseren welke systemen onder welke risicoklasse vallen. Dit geldt nadrukkelijk voor publieke instellingen; de “Europese AI-verordening gevolgen overheid” zijn direct en praktisch.

Big tech zet de toon

De markt wordt op het moment van schrijven gedomineerd door enkele Amerikaanse spelers. OpenAI bracht GPT-4o en nieuwe spraakfuncties uit, Google versnelde met Gemini 1.5, en Anthropic lanceerde Claude 3.5. Meta duwt met Llama 3.1 en 3.2 open modellen richting ontwikkelaars. Die modellen zijn multimodaal: ze verwerken tekst, beeld, audio en soms video.

De trainingskosten zijn hoog en vragen om krachtige chips en datacenters. Dit vergroot de voorsprong van partijen met toegang tot Nvidia-hardware en veel data. Tegelijk sluiten modelbouwers licentiedeals met uitgevers om juridische risico’s te verminderen. In Europa sloten onder meer Axel Springer en de Financial Times dergelijke akkoorden voor nieuwscontent.

Europa probeert eigen capaciteit op te bouwen via supercomputers en open onderzoek. Programma’s als EuroHPC en systemen zoals LUMI en JUPITER moeten modeltraining in de EU mogelijk maken. Start-ups als Mistral AI (Frankrijk) en Aleph Alpha (Duitsland) ontwikkelen eigen modellen. Zij richten zich op transparantie en efficiënte modellen voor Europese talen.

Voor Nederlandse en Europese bedrijven blijft de keuze: inkopen bij big tech of inzetten op Europese alternatieven. Open modellen bieden meer controle, maar vragen meer eigen expertise. Gesloten modellen leveren snelheid en integratie, maar verhogen afhankelijkheid en kosten. Juridische due diligence over data, auteursrecht en exportregels wordt een concurrentievoordeel.

Kansen voor Nederland en EU

Veel organisaties zien directe productiviteitswinst met tekst- en codeassistenten. Denk aan samenvattingen, vertalingen, klantcontact en interne zoekfuncties. In de zorg helpen systemen bij verslaglegging en triage, mits artsen eindverantwoordelijk blijven. Onderwijs gebruikt AI als oefentool, met duidelijke grenzen rond plagiaat en datagebruik.

Gemeenten en uitvoeringsdiensten experimenteren met chatbots en beslissingsondersteuning. Amsterdam en Rotterdam publiceren al algoritmen in een register om transparant te zijn. Zulke registers maken duidelijk doel, data en risico’s. Ze helpen ook om te beoordelen of een toepassing onder de AI Act als hoog risico telt.

Voor het mkb ligt de winst in procesautomatisering en betere service. Generatieve modellen kunnen offertes, productbeschrijvingen en supportantwoorden versnellen. Bedrijven moeten wel waarborgen inbouwen: controle door mensen, logging en duidelijke foutafhandeling. Contracten met leveranciers moeten privacy, beveiliging en aansprakelijkheid vastleggen.

De Nederlandse toezichthouders, zoals de Autoriteit Persoonsgegevens, benadrukken zorgplicht en transparantie. Impactassessments en tests met representatieve data worden standaard. Organisaties die nu governance op orde brengen, profiteren later van lagere compliancekosten. Dat maakt de stap van pilot naar productie veiliger en sneller.

Misinformatie vraagt waarborgen

Met de snelle opkomst van generatieve audio en video groeit het risico op deepfakes. Bij verkiezingen in Europa doken al vervalste beelden en geluidsfragmenten op. Verplichte labeling en watermerken helpen, maar zijn niet waterdicht. Mediawijsheid en snelle factchecking blijven nodig.

Grote platforms vallen onder de Europese Digital Services Act (DSA). Zij moeten systemische risico’s, zoals desinformatie, actief beperken en transparant rapporteren. De Europese Commissie kan ingrijpen met audits en boetes. Samenwerking tussen platforms, factcheckers en toezichthouders is cruciaal in verkiezingsperiodes.

Voor publieke communicatie geldt: herkenbaar maken wat door een systeem is gegenereerd. Overheden moeten uitleggen wanneer en hoe AI is gebruikt in brieven, apps of websites. Dit versterkt vertrouwen en voorkomt verwarring bij burgers. Het sluit aan bij de transparantie-eisen uit de AI Act.

De keuze van Time vergroot de aandacht voor deze veiligheidslagen. Het debat verschuift van óf AI naar hóe AI verantwoord wordt ingezet. Europa probeert hier een middenweg te vinden tussen innovatie en bescherming. De komende maanden zullen laten zien of die aanpak voldoende houvast biedt.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>