Woolworths kampt met storing in AI-virtuele assistent: wat ging mis?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Woolworths kampt met storing in AI-virtuele assistent: wat ging mis?

Amsterdam, 27 februari 2026 09:34 

Een grote Australische supermarktketen heeft problemen met een virtuele assistent op zijn website en app. Het hulpmiddel met kunstmatige intelligentie gaf onverwachte of onjuiste antwoorden aan klanten. Het incident speelde zich online af en kwam recent aan het licht. Het is ook relevant voor Europa, waar de AI‑verordening (AI Act) de gevolgen voor retailers en overheid aanscherpt.

Assistent geeft foutieve antwoorden

De virtuele assistent is een chatbot die met tekst reageert op klantvragen. Zo’n systeem gebruikt een generatief taalmodel, dat zinnen voorspelt op basis van grote hoeveelheden tekst. Dat werkt snel en handig, maar kan ook missen of dingen verzinnen. De naam van het gebruikte model is op het moment van schrijven niet publiek bekend.

Gebruikers meldden dat het hulpmiddel verkeerde of vreemde suggesties deed. Denk aan onjuiste productinformatie of antwoorden die niet pasten bij de vraag. Zulke fouten komen vaker voor bij generatieve systemen, vooral zonder strakke begrenzingen. Het risico groeit als de chatbot vrij mag improviseren buiten gecontroleerde kennisbronnen.

Een ā€œhallucinatieā€ is wanneer een AI‑systeem met veel vertrouwen onjuiste of verzonnen informatie geeft.

Als klanten op zulke antwoorden vertrouwen, kan dat tot teleurstelling of zelfs schade leiden. Dat geldt bijvoorbeeld bij allergenen, houdbaarheid of retourregels. Ook kunnen klantvragen blijven liggen als het systeem de context niet begrijpt. Dat schaadt het vertrouwen in digitale klantenservice.

Risico’s voor consumenten

Een digitale assistent in de supermarkt raakt al snel aan praktische vragen. Het gaat dan om prijzen, acties, ingrediƫnten en recepten. Een fout in deze informatie kan direct gevolgen hebben voor de gebruiker. Daarom zijn duidelijke waarschuwingen en een snelle route naar een medewerker nodig.

Er is ook een privacykant. Zo’n assistent verwerkt klantvragen en soms accountgegevens. Volgens de AVG moeten bedrijven dataminimalisatie toepassen en data goed beveiligen. Dat betekent: niet meer gegevens verzamelen dan nodig en gevoelige data versleutelen.

Daarnaast spelen rechten van de consument. Antwoorden van een chatbot mogen niet misleidend zijn. In de EU geldt bovendien dat commerciĆ«le communicatie eerlijk en controleerbaar moet zijn. Bedrijven doen er goed aan elk AI‑antwoord te voorzien van bronverwijzingen of te beperken tot gecontroleerde informatie.

AI‑verordening vraagt transparantie

De Europese AI‑verordening (AI Act) verplicht aanbieders van chatbots tot transparantie. Gebruikers moeten weten dat zij met een algoritme praten. Dat geldt evenzeer voor supermarkten, webwinkels en ook voor de overheid bij digitale loketten.

Voor dit type klantenservice vallen systemen doorgaans in de categorie met beperkt risico. Toch eist de AI Act basismaatregelen zoals duidelijke instructies, menselijk toezicht en klachtenafhandeling. Ook moet er een risicoanalyse zijn en logregistratie van het systeemgedrag. Dat helpt bij het onderzoeken van incidenten zoals nu bij de Australische keten.

De AVG blijft daarnaast leidend voor alle persoonsgegevens. Bedrijven moeten een rechtsgrond hebben, bewaartermijnen afspreken en datalekken melden. In Nederland houdt de Autoriteit Persoonsgegevens hierop toezicht. Bij misleidende uitingen kan ook de Autoriteit Consument & Markt optreden.

Lessen voor Nederlandse retail

Nederlandse ketens zoals Albert Heijn (Ahold Delhaize) en Jumbo investeren in digitale klantenservice. Als zij AI‑assistenten inzetten, gelden dezelfde regels en aandachtspunten. Denk aan transparantie, controleerbare antwoorden en gemakkelijke doorverwijzing naar een mens. Dat verlaagt de kans op fouten en klachten.

Een praktische stap is het beperken van de actieradius van de assistent. Laat het systeem alleen antwoorden uit goedgekeurde bronnen, zoals productdatabases en helpartikelen. Zo voorkomt de retailer dat het model gaat gissen. Ook periodieke tests met echte klantvragen helpen om gaten te vinden.

Verder is het verstandig om een duidelijk privacy‑dashboard te bieden. Klanten kunnen dan zien welke gegevens worden gebruikt en hoe lang. Ook hoort daarbij een optie om gesprekken te verwijderen. Dat sluit aan bij de AVG en verhoogt het vertrouwen.

Fouten beperken in systemen

Technisch zijn er meerdere verdedigingslagen mogelijk. Een veelgebruikte aanpak is retrieval‑augmented generation (RAG): het model zoekt eerst feiten op in een eigen kennisbank en bouwt daar het antwoord op. Dat verkleint de kans op verzinsels. Daarnaast kunnen zogeheten ā€œguardrailsā€ ongepaste of gevaarlijke antwoorden blokkeren.

Menselijk toezicht blijft nodig, zeker bij gevoelige onderwerpen. Een hybride aanpak werkt vaak het best: eenvoudige vragen door de assistent, moeilijke vragen naar een medewerker. Ook kan de retailer drempels inbouwen voor risicovragen, zoals ingrediƫnten en allergenen. Daarbij horen vaste, juridisch getoetste sjablonen.

Continu monitoren is de laatste stap. Logbestanden tonen welke antwoorden problemen geven. Met die inzichten kunnen regels en bronnen worden aangescherpt. Zo verbetert de kwaliteit zonder verrassingen voor klanten.

Wat klanten nu kunnen doen

Controleer belangrijke informatie altijd dubbel, vooral bij gezondheid of geld. Vraag bij twijfel om een menselijk medewerker. Deel geen gevoelige persoonsgegevens in een chatvenster, tenzij dat echt nodig is. Dat is een simpele AVG‑regel die altijd helpt.

Meld foutieve of vreemde antwoorden via het contactkanaal van de winkel. Dat geeft de aanbieder input om het systeem te verbeteren. Bewaar bij een klacht het gesprek of een screenshot. Daarmee is later na te gaan wat er precies is gebeurd.

Gebruik waar mogelijk de officiĆ«le productpagina’s en etiketten als bron. Die zijn doorgaans gecontroleerd en actueel. Een virtuele assistent kan handig zijn, maar is geen vervanging van vaste informatie. Kritisch blijven is dus verstandig.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>