EU begint onderzoek naar Google AI: risico voor innovatie?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • EU begint onderzoek naar Google AI: risico voor innovatie?

Amsterdam, 9 december 2025 13:40 

De Europese Commissie is deze week een onderzoek gestart naar de AI-diensten van Google in de EU. Brussel wil weten hoe systemen als Gemini en AI-antwoorden in Zoeken uitpakken voor concurrentie, makers en gebruikers. De toezichthouder kijkt naar de inzet van data, de zichtbaarheid van bronnen en het effect op nieuwsverkeer. Het doel is te toetsen of Google voldoet aan Europese regels, zoals de DMA, DSA, AVG en de Europese AI-verordening, en wat de gevolgen zijn voor overheid en publiek.

Commissie onderzoekt AI-functies

De Commissie richt zich op generatieve AI-functies van Google, zoals Gemini en de AI-overzichten in Google Zoeken. Deze functies maken automatisch samenvattingen en antwoorden. Daarbij kan tekst van websites en nieuwsmedia worden gebruikt. De vraag is of dit gebeurt op een manier die eerlijk en transparant is.

De toezichthouder bekijkt ook hoe de AI-resultaten worden getoond in de zoekpagina. Als directe antwoorden boven links staan, kan dat minder bezoekers opleveren voor uitgevers en kleine websites. Dat raakt advertentie-inkomsten en zichtbaarheid. Het kan ook invloed hebben op mediapluralisme in Europa.

Verder onderzoekt Brussel welke data de modellen gebruiken om te leren. Training op publiek web, persartikelen en sociale platforms roept juridische vragen op. Denk aan licenties, toestemming en hergebruik. Ook de kwaliteit en controle van bronnen komt aan bod.

De Commissie kan documenten opvragen, marktpartijen horen en technische tests laten doen. Ook kan zij aanvullende vragen sturen aan uitgevers, concurrerende zoekdiensten en factcheckers. Zo ontstaat een breed beeld van risico’s en effecten. Daarna volgt een oordeel of maatregelen nodig zijn.

Mogelijke strijd met EU-regels

De Digital Markets Act (DMA) legt extra plichten op aan poortwachters, zoals Google. Zelfvoorkeur geven aan eigen diensten is verboden. Dat speelt als AI-antwoorden vooral naar Google-diensten verwijzen. Ook moeten voorwaarden voor toegang tot het platform eerlijk en transparant zijn.

De Digital Services Act (DSA) geldt voor zeer grote platforms. Die moeten systemische risico’s beoordelen, onder meer rond desinformatie en schadelijke fouten van algoritmen. Voor AI-overzichten betekent dat duidelijke uitleg over herkomst en weergave van informatie. Ook moeten gebruikers ongewenste profilering kunnen vermijden.

De AVG (privacywet) is relevant als persoonlijke gegevens worden gebruikt voor training of antwoorden. Kernprincipes zijn dataminimalisatie, grondslag en goede beveiliging. De Commissie kan daarom afstemmen met privacytoezichthouders. Dat helpt om dubbele regels te voorkomen.

De Europese AI-verordening (AI Act) treedt gefaseerd in werking op het moment van schrijven. Generatieve modellen krijgen transparantieplichten over gebruikte bronnen en energieverbruik. Ook moeten aanbieders risico’s voor veiligheid en misleiding beperken. Dat raakt direct de ontwikkeling en uitrol van Gemini in de EU.

Gevolgen voor uitgevers en publiek

Uitgevers in Nederland en Europa vrezen minder verkeer als AI-antwoorden voldoende zijn voor de gebruiker. Zij investeren in journalistiek, maar zien hun tekst mogelijk verwerkt zonder duidelijke bronvermelding of vergoeding. Zij vragen daarom om heldere licenties en zichtbare links. Dit is extra belangrijk voor regionale en nichemedia.

Het Europese persuitgeversrecht uit de DSM-richtlijn geeft recht op een vergoeding voor online gebruik van nieuwsfragmenten. Er zijn afspraken gemaakt in landen als Frankrijk en Nederland. Toch zijn niet alle titels gedekt en verschilt de vergoeding per markt. AI-samenvattingen zetten die afspraken onder druk.

Een lastig punt is de grens tussen een kort fragment en een volledige samenvatting. Een model dat meerdere bronnen mengt, maakt de herkomst minder zichtbaar. Dan is onduidelijk welk recht precies geldt. Het EU-onderzoek kan hier richting aan geven.

Voor het publiek bieden AI-antwoorden snelheid en gemak. Tegelijk blijven fouten en verzinsels een risico bij generatieve systemen. Duidelijke labels en zichtbare bronnen helpen gebruikers beter te beoordelen. Dat is belangrijk voor onderwijs, zorg en overheidstoepassingen.

Maatregelen en mogelijke sancties

Als regels zijn overtreden, kan de Commissie ingrijpen. Denk aan aanpassingen in de interface, strengere transparantie en betere bronvermelding. Ook kunnen afspraken worden afgedwongen over licenties en vergoedingen. In zware gevallen volgen boetes.

Het proces verloopt in stappen en kan maanden duren. Eerst komen informatieverzoeken en een formele aankondiging. Daarna geeft Google zijn reactie en kan het vrijwillige verbeteringen voorstellen. Pas daarna beslist Brussel over sancties of verplichtingen.

Onder de DMA kan de EU boetes opleggen tot 10% van de wereldwijde jaaromzet, oplopend tot 20% bij herhaalde overtredingen.

Mogelijke remedies zijn ook technische maatregelen. Bijvoorbeeld prominenter linken naar bronnen in AI-antwoorden. Of duidelijke opt-outs voor het gebruik van content in training. Ook kan de Commissie eisen dat AI-uitvoer helder wordt gelabeld.

Europese AI-verordening gevolgen overheid

Voor Nederlandse uitgevers, zoals DPG Media en Mediahuis, zijn de uitkomsten direct voelbaar. Het gaat om verkeer, inkomsten en vindbaarheid van journalistiek. Het Commissariaat voor de Media volgt dit vanwege mediapluralisme. De overheid kijkt mee vanwege de betrouwbaarheid van publieke informatie.

De Autoriteit Consument & Markt kan signalen delen met Brussel over marktwerking. De Autoriteit Persoonsgegevens let op AVG-naleving bij datagebruik. Overheidsinstanties die AI inzetten moeten rekening houden met de AI Act. Dat vraagt om risicobeoordelingen en transparantie richting burgers.

Scholen, bibliotheken en publieke diensten zijn afhankelijk van zoekmachines. Veranderingen in hoe AI-resultaten verschijnen raken informatievaardigheden en toegankelijkheid. Heldere bronvermelding en uitleg zijn daarom essentieel. Dit helpt gebruikers om desinformatie te herkennen.

Bedrijven en instellingen doen er goed aan hun publicatie-instellingen te herzien. Denk aan robots.txt en machineleesbare signalen om AI-training te beperken. Sommige aanbieders bieden hiervoor aparte opt-outs voor datamodellen. Juridische en technische teams moeten deze keuzes samen maken.

Wat Google nu kan doen

Google kan vrijwillig maatregelen nemen om zorgen weg te nemen. Bijvoorbeeld standaard bronvermelding, betere linkprominentie en expliciete licentiestromen. Ook kan het bedrijf transparanter zijn over trainingsdata en modelgedrag. Dat past bij de plichten uit de DSA en AI Act.

Daarnaast helpt het om uitgevers tools te geven om deelname te regelen. Een simpel en betrouwbaar opt-out mechanisme verlaagt de spanning. Heldere rapportages over verkeer en herkomst ondersteunen zakelijke afspraken. Zo ontstaat meer vertrouwen in de keten.

Tot slot kan Google investeren in kwaliteitsfilters om fouten te beperken. Denk aan strengere feitenchecks en veiligheidsrails rond gevoelige onderwerpen. Dit verkleint de kans op misinformatie en reputatieschade. Het is in lijn met Europese eisen voor risicobeperking.

De komende maanden bepalen de toon voor AI in zoeken in Europa. Het onderzoek moet duidelijk maken waar de grenzen liggen. Voor burgers en makers staat betrouwbaarheid en eerlijk delen van waarde centraal. Dat is de kern van de Europese digitale regels.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>