Steeds meer chatbots krijgen een geheugen dat gesprekken onthoudt. OpenAI levert dit in ChatGPT met de functie Memory, op het moment van schrijven gefaseerd beschikbaar. Dat maakt gesprekken persoonlijker, maar vergroot ook privacyrisico’s onder de AVG en de Europese AI‑verordening. Gebruikers in Nederland en Europa moeten daarom bewuster instellingen kiezen en weten wat er wordt opgeslagen.
Chatbots krijgen geheugen
ChatGPT van OpenAI kan nu voorkeuren, feiten en werkinformatie over een gebruiker onthouden. Deze “Memory” werkt over meerdere gesprekken en voorkomt herhaling. Het systeem gebruikt modellen zoals GPT‑4o om die gegevens in nieuwe antwoorden mee te nemen.
Geheugen in kunstmatige intelligentie betekent hier: blijvende context buiten één chatsessie. De chatbot slaat korte stukjes informatie op, zoals rol, schrijfstijl of terugkerende taken. Dat levert snellere en beter passende antwoorden op.
De functie wordt op het moment van schrijven stapsgewijs uitgerold en is bij sommige accounts standaard uit of aan. In ChatGPT is Memory te beheren via Instellingen. Ook in het gesprek kun je de opdracht geven om iets wel of niet te onthouden.
Wat wordt onthouden
ChatGPT verzamelt geheugen op twee manieren: expliciet en impliciet. Expliciet is wanneer je zegt “Onthoud dat ik docent biologie ben.” Impliciet is wanneer het model zelf patronen herkent en voorstelt om iets te onthouden.
Typische items zijn beroep, voorkeur voor toon, veelgebruikte formats en vaste gegevens zoals een bedrijfsadres. Ook projectcontext kan worden opgeslagen, bijvoorbeeld welke datasets of tools je vaak noemt. Gevoelige of bijzondere persoonsgegevens horen hier niet in thuis onder de AVG.
Het risico is “valse herinneringen”: het model kan verkeerde conclusies trekken en die blijven gebruiken. Daarom is het belangrijk dat gebruikers het geheugen kunnen inzien en wissen. Zakelijke beheerders moeten bovendien vastleggen welke datatypes niet mogen worden opgeslagen.
Voordeel en keerzijde
Het grote voordeel is minder herhalen en meer consistentie. De chatbot weet jouw voorkeur voor korte bulletpoints of specifieke bronnen. Dat scheelt tijd bij terugkerende taken, zoals samenvattingen of standaardmails.
Nadelen zijn privacyrisico’s en foutongevoeligheid. Onjuiste of verouderde gegevens kunnen “kleven” aan latere antwoorden. Ook kunnen gegevens uit verschillende contexten onbedoeld door elkaar lopen.
Daarom bouwen aanbieders knoppen in om geheugen te pauzeren of te wissen. OpenAI laat je per item geheugen verwijderen en een globale reset doen. Voor bedrijfsgebruik zijn er admin‑instellingen die opslag kunnen beperken.
“Geheugen” in chatbots is het blijvend opslaan van kleine gegevens over de gebruiker om latere gesprekken te personaliseren; dit valt onder de AVG als het om persoonsgegevens gaat.
AVG en AI‑verordening
In Europa geldt de AVG voor alles wat herleidbaar is tot een persoon. Dataminimalisatie is verplicht: sla niet meer op dan strikt nodig. Gebruikers moeten inzage, correctie en verwijdering kunnen vragen.
Een rechtmatige grondslag is vereist, vaak ondubbelzinnige toestemming voor persoonlijke herinneringen. Ook is transparantie nodig: duidelijk maken wat wordt opgeslagen, hoe lang en met welk doel. Versleuteling en beperkte bewaartermijnen helpen om risico’s te verlagen.
De Europese AI‑verordening (AI Act) plaatst algemene AI‑systemen zoals GPT‑4o in de categorie GPAI met extra transparantie‑eisen. Organisaties moeten documenteren hoe zij het systeem inzetten en welke risico’s er zijn. In hoogrisico‑toepassingen gelden bovendien strengere regels bovenop de AVG.
Regie voor gebruikers
Je houdt zelf de regie door het geheugen te beheren. In ChatGPT ga je naar Instellingen, Personalization en zet je Memory aan of uit. Je kunt ook typen: “Wat onthoud je over mij?” om het overzicht te zien.
Gebruik commando’s als “Vergeet dit” of “Onthoud dit niet langer” om losse items te wissen. Schakel tijdens gevoelige gesprekken het geheugen tijdelijk uit. Deel geen gegevens die je niet terug wilt zien in latere antwoorden.
Controleer daarnaast je account‑activiteit en bewaartermijnen. Zet automatische opslag van chathistorie uit als dat niet nodig is. Verwijder regelmatig oude herinneringen om dataminimalisatie toe te passen.
Impact op organisaties
Bedrijven en overheden in Nederland moeten het gebruik van geheugen in chatbots beleidsmatig regelen. Stel dataclassificaties op: wat mag wel, wat nooit. Leg afspraken vast in een verwerkersovereenkomst en voer een DPIA uit voor risicovolle processen.
ChatGPT Enterprise en Teams bieden beheeropties om geheugen te beperken en data niet te gebruiken voor training. In Microsoft 365 Copilot gelden andere waarborgen via het Microsoft Graph‑toegangsmodel, maar ook daar is dataminimalisatie nodig. Kies per tool bewust tenant‑instellingen, logging en retentie.
Voor sectoren als zorg, onderwijs en overheid gelden extra plichten rond vertrouwelijkheid en archivering. Controleer of geheugenfunctie past binnen interne en wettelijke kaders. Train medewerkers om geen gevoelige data in persoonlijke herinneringen te zetten.

