Europese online marktplaatsen, zoals Marktplaats (Nederland) en Vinted, verschuiven in 2026 hun aandacht van social media naar kunstmatige intelligentie. Bedrijven investeren in algoritmen voor zoeken, aanbevelingen en controle van advertenties. De stap moet kosten verlagen en vertrouwen vergroten. Dit raakt ook regels: de AVG en de Europese AI-verordening, met gevolgen voor overheidstoezicht en platformverantwoordelijkheid.
Social budget gaat naar AI
Advertentiekosten op social media stijgen, terwijl het organische bereik daalt. Marktplaatsen kiezen daarom voor eigen AI-functies die kopers en verkopers sneller bij elkaar brengen. Dat vermindert de afhankelijkheid van Meta en TikTok. Het maakt platforms ook minder kwetsbaar voor veranderingen in tracking, zoals strengere browserbeperkingen en de Digital Markets Act.
De inzet van algoritmen verschuift van marketing naar productontwikkeling. Denk aan betere zoekresultaten, automatische beschrijvingen en slimmere aanbevelingen. Zo blijft verkeer op het platform en neemt de conversie toe. Ook kunnen teams sneller experimenteren, omdat data direct beschikbaar is.
Voor Nederlandse spelers als Marktplaats en bol.com is dit een logische stap. Zij hebben veel transactiedata, die nuttig is voor modellen. Tegelijk groeit druk vanuit toezichthouders om uitleg te geven over profilering. Transparantie wordt dus onderdeel van de productstrategie.
Zoek en aanbeveling verbeteren
Nieuwe zoekfuncties begrijpen gewone taal. Een gebruiker kan typen ārode kinderfiets zonder zijwieltjesā en het systeem herkent de bedoeling. Dat werkt met zogeheten vectorzoekopdrachten, een techniek die betekenis van tekst en beeld in getallen zet. Leveranciers zijn bijvoorbeeld OpenAI, Google en Cohere.
Beeldherkenning helpt bij visuele zoekopdrachten. Een foto van een sneaker leidt direct naar vergelijkbare aanbiedingen. Dit verkort de tijd tussen zoeken en kopen. Het vraagt wel heldere uitleg over wat er met geüploade beelden gebeurt.
Aanbevelingssystemen laten meer controle aan de gebruiker. Filters worden simpeler en duidelijker. De Digital Services Act verplicht grote platforms bovendien om een niet-gepersonaliseerde feed aan te bieden. Dat past bij de roep om keuzevrijheid en minder ondoorzichtige profilering.
Fraude en moderatie strakker
AI-modellen markeren verdachte patronen, zoals ongebruikelijke prijsverschillen of hergebruik van fotoās. Ze helpen ook bij het herkennen van nep-accounts en phishing in chat. Zulke systemen verlagen risicoās voor kopers en verkopers. Maar ze kunnen fouten maken en hebben daarom menselijke controle nodig.
Automatische moderatie is het inzetten van algoritmen die inhoud beoordelen op risico. Mensen nemen de eindbeslissing bij twijfel of bezwaar.
Chatbots beantwoorden basisvragen en blokkeren verdachte links. Grote taalmodellen, zoals GPT-4o of Llama 3, worden daarbij vaak gebruikt voor samenvattingen en standaardantwoorden. Platforms houden logs bij om misbruik te onderzoeken. Voor Nederland betekent dit samenwerking met de politie en meldpunten bij internetoplichting.
Bias blijft een aandachtspunt. Een systeem kan groepen onterecht vaker markeren als ārisicoā. Platforms moeten dit meten en corrigeren. Een onafhankelijke audit, zoals aanbevolen door de Europese Commissie, helpt daarbij.
AVG vraagt dataminimalisatie
Voor personalisatie is een duidelijke grondslag nodig. De AVG eist toestemming of een andere geldige basis voor profilering. Dataminimalisatie betekent: alleen gegevens gebruiken die echt nodig zijn. Versleuteling en pseudonimisering beschermen data tijdens verwerking.
Automatische beslissingen die grote gevolgen hebben, vallen onder artikel 22 AVG. Gebruikers hebben recht op uitleg en bezwaar. Dat geldt bijvoorbeeld bij het blokkeren van een account op basis van een score. Platforms moeten daarom een mens in het proces houden en beslisregels documenteren.
De Autoriteit Persoonsgegevens ziet hier in Nederland op toe, op het moment van schrijven. Duidelijke privacyverklaringen en een eenvoudig opt-out zijn nodig. Ook voor minderjarigen gelden strengere eisen. Leeftijdsverificatie moet proportioneel en privacyvriendelijk zijn.
AI-verordening dwingt transparantie
De Europese AI-verordening deelt toepassingen in op risico. Aanbevelingen en zoekfuncties zijn meestal ābeperkt risicoā en vragen vooral transparantie. Biometrische identificatie voor verkoperverificatie kan hoger risico zijn en zwaardere plichten meebrengen. Veel marktplaatsen kiezen daarom voor niet-biometrische checks.
Chatbots moeten duidelijk maken dat je met een systeem praat. Deepfake-beelden en -audio moeten worden gelabeld. Dit raakt advertentiebeoordeling en content van verkopers. Het verkleint de kans op misleiding bij productfotoās en review-videoās.
De combinatie met de Digital Services Act is belangrijk. Grote platforms moeten verklaren hoe hun aanbevelers werken en welke signalen ze gebruiken. In Nederland houdt de Autoriteit Consument & Markt hier toezicht op, op het moment van schrijven. Dit stimuleert begrijpelijke uitleg in de app en in helpcenters.
Impact op Nederlandse verkopers
Kleine ondernemers profiteren van betere vindbaarheid en automatische beschrijvingen. AI kan titels herschrijven en tags toevoegen in begrijpelijke taal. Dat scheelt tijd en vergroot bereik binnen Marktplaats en bol.com. Tegelijk moeten zij transparant zijn richting klanten over AI-gebruik.
Dynamische prijzen komen vaker voor, maar vragen zorg. Te snelle prijswijzigingen kunnen wantrouwen wekken. Platformen zullen daarom limieten en uitleg geven. Een simpele āwaarom zie ik ditā-knop wordt standaard.
Voor tweedehands handel, sterk in Nederland en Belgiƫ, blijft vertrouwen de kern. Verificatie, veilige betaalopties en sneller modereren maken het verschil. AI helpt, maar lost niet alles op. De menselijke maat en duidelijke procedures blijven nodig.
