Blaise Agüera y Arcas: zo verandert AI ons ‘wij’ in de komende eeuw

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Blaise Agüera y Arcas: zo verandert AI ons ‘wij’ in de komende eeuw

Amsterdam, 24 januari 2026 07:31 

Google-onderzoeker Blaise Agüera y Arcas schetst hoe kunstmatige intelligentie ons begrip van “wij” zal veranderen. Hij verwacht dat mens en machine in de komende eeuw nauwer samenwerken en samen beslissen. De onderzoeker werkt aan taalmodellen bij Google en bespreekt kansen en risico’s voor Europa en Nederland. Ook gaat het om Europese AI-verordening gevolgen overheid.

Identiteit schuift door AI

Agüera y Arcas stelt dat slimme systemen straks als partners aanvoelen. We doen nu al samen werk met algoritmen, zoals schrijven, programmeren en ontwerpen. Daardoor verschuift ons idee van auteurschap en verantwoordelijkheid. De vraag wie “wij” zijn, wordt breder dan alleen mensen.

Een taalmodel is software die patronen in taal leert uit grote hoeveelheden tekst. Google gebruikt zulke modellen in LaMDA en Gemini om tekst te begrijpen en te genereren. De systemen kunnen samenvatten, vertalen en praten in natuurlijke zinnen. Ze zijn niet bewust, maar steeds vaker bruikbaar als hulpmiddel.

Die samenwerking roept maatschappelijke vragen op. Wie beslist bij fouten: mens, machine of leverancier? En wie is eigenaar van het resultaat als mens en model samen iets maken? Agüera y Arcas benadrukt dat we die vragen nu al moeten regelen.

Google trekt veiligheidslijnen

Google bouwt extra beveiliging rond generatieve systemen zoals Gemini. Het bedrijf test outputs met zogeheten red-teams en past risicofilters toe. Ook worden modellen getraind om schadelijke of misleidende antwoorden te vermijden. Toch blijven fouten en “hallucinaties” mogelijk; dat zijn verzinsels die feitelijk lijken.

Voor herkenning van synthetische media zet Google SynthID in. Dit is een onzichtbare markering die in afbeeldingen en audio kan laten zien dat iets door een model is gemaakt. Het helpt bij opsporing, maar is geen sluitend systeem. In open internetketens verdwijnt de markering soms of ontbreekt die bij andere aanbieders.

Vertrouwen komt ook van transparantie richting gebruikers. Google publiceert veiligheidsinformatie en gebruikt toelichtingen in producten zoals Gemini en Search. Tegelijk balanceert het bedrijf tussen gebruikersgemak en strenge regels. De Europese markt dwingt hier tot duidelijke keuzes.

Europese AI-verordening gevolgen overheid

De AI-verordening (AI Act) deelt systemen in op risico en legt plichten op aan aanbieders. Generatieve en algemene modellen (GPAI) moeten documentatie leveren, auteursrecht respecteren en een publiek overzicht van trainingsdata geven. Voor “systemische” modellen gelden extra eisen, zoals onafhankelijke tests en incidentmeldingen. Overheden en bedrijven moeten hun inkoop en toezicht hierop aanpassen.

De AI-verordening verplicht aanbieders van generatieve modellen tot transparantie, risicobeperking en duidelijke labels voor synthetische media, zodat burgers weten met een algoritme te maken te hebben.

Voor deepfakes komt er een labelplicht, met gevolgen voor campagnes en media. Grote platforms vallen daarnaast onder de Digital Services Act, die misinformatie sneller moet aanpakken. Samen moeten deze regels verkiezingen en publieke diensten beschermen. Leveranciers als Google moeten hun systemen en documentatie op Europese normen inrichten.

Voor Nederlandse instanties betekent dit nieuwe processen bij aanbesteding en gebruik. Denk aan toetsing van dataminimalisatie, logging en menselijke controle. De Autoriteit Persoonsgegevens blijft toezien op privacy, ook wanneer AI wordt ingezet. Gemeenten en ministeries moeten bovendien de herkomst van data en modelversies kunnen auditen.

Privacy en auteursrecht knellen

De AVG vraagt om een duidelijke rechtsgrond voor het verwerken van persoonsgegevens in training en gebruik. Dataminimalisatie en versleuteling zijn daarbij basisvoorwaarden. Publieke webdata zijn niet automatisch vrij te gebruiken als er persoonlijke informatie in staat. Bedrijven moeten dit aantoonbaar borgen in hun technische documentatie.

Voor teksten en beelden geldt in de EU het auteursrecht met een uitzondering voor tekst- en datamining. Rechthebbenden mogen een opt-out gebruiken, die aanbieders moeten respecteren. Google zegt rekening te houden met licenties en opt-outs bij het trainen van modellen. Discussies over eerlijke vergoeding en bronvermelding lopen door.

Gebruikers willen weten welke bronnen een model gebruikte. Modellen kunnen wel verwijzingen tonen, maar die zijn niet altijd volledig of correct. Daarom stimuleert Europa brontransparantie en watermerken. Dit helpt redacties, scholen en rechters bij het beoordelen van betrouwbaarheid.

Gevolgen voor onderwijs en zorg

Scholen testen chatbots als tutor voor schrijven en rekenen. Dit kan helpen bij maatwerk, maar vereist toezicht door docenten. Leerlingen moeten leren hoe een model werkt en waar het kan falen. Onderwijsinstellingen moeten daarnaast privacy-afspraken en logging op orde hebben.

In de zorg verschijnen AI-hulpen voor triage en verslaglegging. Zulke toepassingen vallen vaak in een hogere risicoklasse en vragen strikte validatie. Artsen blijven eindverantwoordelijk; het systeem is een tweede lezer, geen vervanger. Koppeling met patiëntdata moet voldoen aan AVG en medische regelgeving.

Voor de overheid wordt inkoop belangrijker dan ooit. Contracten moeten eisen opnemen over dataherkomst, beveiliging en auditrechten. Ook lokale overheden hebben hiermee te maken, bijvoorbeeld bij klantenservicetools of vertaalhulp. Zo worden regels en technologie in de praktijk bij elkaar gebracht.

Mens en machine verdelen rollen

Agüera y Arcas ziet een toekomst waarin mens en model taken flexibel verdelen. De mens stelt doelen en bewaakt waarden; het systeem helpt met taal, planning en analyse. Zo groeit een nieuw soort “wij”, met duidelijke afspraken over macht en grenzen. Dat vergt technische innovatie én publiek debat.

Europa kiest daarbij voor een pad van voorzichtigheid en transparantie. Bedrijven als Google moeten laten zien hoe hun datamodellen werken en waar de risico’s zitten. Burgers krijgen recht op uitleg en op herkenbare labels bij synthetische inhoud. Die combinatie moet innovatie mogelijk maken zonder publieke schade.

De kern blijft hetzelfde: grip houden op systemen die we samen gebruiken. Met beter toezicht, open documentatie en praktische veiligheidsmaatregelen kan dat. De komende jaren laten zien of die aanpak ook vertrouwen oplevert. En of “wij” daardoor sterker wordt, in plaats van diffuser.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>