Italië grijpt in bij Meta’s plannen voor kunstmatige intelligentie in WhatsApp. De mededingingsautoriteit AGCM startte onlangs een procedure om het datagebruik voor AI-functies te toetsen. Aanleiding zijn nieuwe voorwaarden rond de assistent Meta AI en het delen van gegevens binnen Meta. De stap raakt ook de AVG en de Europese AI-verordening, met gevolgen voor burgers en overheid.
Italië dwingt meer duidelijkheid
De AGCM onderzoekt of WhatsApp gebruikers voldoende keuze en informatie geeft over AI in de app. Het gaat om updates die datagebruik voor nieuwe functies, zoals de assistent Meta AI, mogelijk maken. De toezichthouder wil voorkomen dat toestemming wordt afgedwongen of onduidelijk is.
WhatsApp mag gebruikers niet laten denken dat zij moeten instemmen om de dienst te blijven gebruiken. Toestemming voor AI moet apart en helder worden gevraagd. Ook moet duidelijk zijn welke gegevens precies worden verwerkt en met welk doel.
De Italiaanse privacytoezichthouder Garante volgt de zaak en wisselt informatie uit met andere Europese autoriteiten. Dat is nodig omdat Meta in de EU via Ierland opereert. Grensoverschrijdende afstemming is verplicht onder de AVG.
Twistpunt: toestemming en data
WhatsApp benadrukt dat chatberichten end-to-end versleuteld zijn. Het bedrijf zegt privégesprekken niet te gebruiken om modellen te trainen. Discussie ontstaat vooral over metadata, accountgegevens en AI-interacties die wel voor verbetering van diensten kunnen worden ingezet.
Bij AI-functies in WhatsApp, zoals Meta AI, worden vragen en antwoorden door algoritmen verwerkt. Dat is nodig om een reactie te geven, maar kan ook worden gebruikt om het systeem te verbeteren. Daarvoor is duidelijke, vrije en specifieke toestemming nodig.
De autoriteiten kijken ook naar mogelijk misleidende ontwerpkeuzes, zogenaamde dark patterns. Denk aan onduidelijke knoppen of ingewikkelde paden om weigeren te vinden. Zulke praktijken zijn in strijd met Europese consumentenregels.
Onder de AVG moet toestemming vrij, specifiek, geïnformeerd en ondubbelzinnig zijn.
Meta AI nog niet in EU
Meta rolde de assistent Meta AI uit in diverse landen buiten de EU. In Europa is de functie op het moment van schrijven nog niet breed beschikbaar. Eerder pauzeerde Meta het trainen op Europese data na ingrijpen van de Ierse DPC.
Italië wil voorkomen dat beleidswijzigingen alvast ruimte creëren voor latere AI-functies zonder waarborgen. Daarom vraagt de toezichthouder om vooraf heldere keuzes voor gebruikers. Dat beperkt risico’s als de uitrol alsnog start.
Meta AI draait op de Llama-modellen van Meta. Dat zijn generieke AI-systemen die tekst en beelden kunnen maken en samenvatten. Zulke general-purpose modellen vallen in de AI-verordening onder extra transparantieplichten.
Bij een EU-lancering moet Meta technische documentatie, een samenvatting van gebruikte trainingsdata en veiligheidsmaatregelen publiceren. Voor zeer krachtige modellen gelden zwaardere eisen. Dat komt bovenop de AVG-regels voor persoonsgegevens.
AVG en AI-verordening eisen
De AVG verlangt een rechtmatige grondslag, dataminimalisatie en doelbinding. Voor AI-training is vaak expliciete opt-in nodig. Versleuteling beschermt inhoud, maar zegt niets over het gebruik van metadata.
De Europese AI-verordening werkt risicogestuurd en kent aparte regels voor general-purpose AI. Ontwikkelaars en uitrolpartijen (deployer) dragen elk verantwoordelijkheid. In apps als WhatsApp betekent dit duidelijke gebruikersinformatie en controleerbare veiligheidsmaatregelen.
Ook consumentenrecht en de Digital Services Act verbieden misleiding in ontwerp. Dat raakt toestemmingsschermen en privacy-instellingen. Transparante keuzes en eenvoudige opt-outs zijn daarom vereist.
Voor overheid en zorg speelt nog een extra eis: een DPIA bij hoog-risico verwerkingen. Dat helpt om impact voor burgers te beoordelen. Het verkleint ook juridische en reputatierisico’s.
Gevolgen voor Nederlandse gebruikers
Voor Nederlandse gebruikers verandert er nu weinig in de app. Wel zet het Italiaanse dossier een Europese standaard voor helder toestemmingsbeheer. Nederlandse toezichthouders sluiten hier doorgaans bij aan.
Komt Meta AI naar Nederland, dan zijn aparte toestemmingen en begrijpelijke uitleg te verwachten. Bedrijven met WhatsApp Business moeten hun privacyverklaring en datastromen bijwerken. Klanten moeten weten wat er met chatgegevens gebeurt.
Publieke organisaties moeten terughoudend zijn met gevoelige informatie in kanalen met onduidelijke AI-verwerking. Denk aan zorg, onderwijs en gemeenten. Een DPIA en contractuele waarborgen zijn dan noodzakelijk.
Voor burgers is het advies simpel: lees toestemmingsschermen, kies bewust en wijzig instellingen waar nodig. In WhatsApp horen duidelijke opt-ins en uitzetten met één klik mogelijk te zijn. Bewaar gevoelige gegevens liever buiten AI-chats.
Wat Meta nu moet doen
Meta moet datastromen rond WhatsApp en Meta AI in kaart brengen en publiceren. Dat omvat welke gegevens worden gebruikt, voor welk doel en hoe lang. Ook moet het bedrijf beloven geen WhatsApp-data te gebruiken voor modeltraining zonder expliciete opt-in.
Bied gebruikers fijnmazige controle: aparte toestemmingen voor AI-functies, personalisatie en systeemprestaties. Voeg een duidelijke aan/uit-knop toe in het hoofdmenu. Zet weigeren net zo zichtbaar neer als accepteren.
Leg technische documentatie klaar voor de AI-verordening, inclusief risicobeperking en evaluaties. Zorg voor onafhankelijke toetsing en incidentmeldingen. Dat maakt toezicht eenvoudiger en vertrouwen groter.
Intussen loopt het Italiaanse onderzoek door en werken Europese autoriteiten samen. Meta moet meewerken en tussentijds aanpassingen doorvoeren. Zo kan een latere uitrol binnen EU-regels plaatsvinden.
