Elon Musk werkt samen met Anthropic in een nieuwe AI-deal. Het bedrijf achter X (voorheen Twitter) levert data aan de maker van de chatbot Claude. De samenwerking is recent gesloten en richt zich op het verbeteren van antwoorden met actuele informatie. Het is opvallend omdat Musk met xAI zelf een concurrerend model, Grok, ontwikkelt.
X levert data aan Anthropic
De afspraak draait om toegang tot publieke berichten en trends op X. Zulke data zijn waardevol om modellen te trainen en om systemen actueel te houden via retrieval, een techniek die live informatie ophaalt. Privéberichten en afgeschermde gegevens vallen hier niet onder.
Met een licentie ontsluit X gegevens op een manier die schaalbaar en juridisch afgedekt is. Dat staat los van ongeoorloofd scrapen, waar X de afgelopen jaren juist tegen optrad. Voor Anthropic is dit een manier om recente online gesprekken veilig en met toestemming te gebruiken.
De deal past in een bredere verschuiving waarin sociale platforms hun archieven verkopen aan AI-bedrijven. Open toegang wordt schaarser, en betaalde API’s en licenties worden de norm. Daarmee ontstaat een markt voor trainings- en contextdata met duidelijke voorwaarden.
Een data-licentie is een contract waarin één partij toestemming geeft om datasets te gebruiken voor een duidelijk omschreven doel, met afspraken over duur, beveiliging en hergebruik.
Concurrenten werken toch samen
Anthropic ontwikkelt Claude, een familie van generatieve modellen voor tekst en code. Musk’s bedrijf xAI bouwt Grok, dat eveneens vragen beantwoordt en programmeertaken ondersteunt. Dat concurrenten toch samenwerken komt vaker voor als één partij unieke data bezit en de andere betere antwoorden wil leveren.
Voor X is dit een manier om inkomsten te halen uit publiek geplaatste content. Voor Anthropic is het een kans om Claude te voeden met actuele, diverse conversaties. Beide partijen winnen, ondanks de concurrentiestrijd tussen Claude en Grok.
Musk verzette zich eerder tegen ongecontroleerd gebruik van platformdata. Een formele licentie lost dat spanningsveld op. Het geeft controle over wat gedeeld wordt, onder welke voorwaarden en met welke waarborgen.
Europese regels sturen gebruik
De Europese AI-verordening (AI Act) verplicht aanbieders van grote generatieve systemen om samenvattingen van hun trainingsdata te publiceren. Deze transparantie moet gebruikers en toezichthouders houvast geven. Een gelicenseerde stroom X-data maakt die verantwoording eenvoudiger.
De AVG blijft van kracht, ook bij publieke posts. Publieke data kan nog steeds persoonsgegevens bevatten, en dat vraagt om een geldige verwerkingsgrond, dataminimalisatie en beveiliging. Bedrijven moeten ook rekening houden met verwijderverzoeken en het recht op bezwaar.
Voor Europese uitgevers en websites geldt daarnaast het text-and-data-mining-regime. Zij mogen hergebruik voor AI-training uitsluiten via een machineleesbare opt-out, zoals in robots.txt. Licenties bieden dan een alternatief pad, mits uitgeverrechten en contracten worden gerespecteerd.
Wat Anthropic ermee wint
Toegang tot X-gegevens kan Claude helpen bij recente gebeurtenissen, taalgebruik en context. Dat is nuttig voor toepassingen als klantenservice, marktanalyse en mediabewaking. Door actuele data te koppelen via retrieval kan het systeem minder verouderde of verzonnen antwoorden geven.
Er zijn ook risico’s. Sociale media bevatten ruis, ironie en desinformatie. Anthropic zal filters en kwaliteitscontroles moeten inzetten om vooroordelen en misleiding te beperken.
Anthropic staat bekend om “Constitutional AI”, een aanpak waarbij het model leert aan de hand van expliciete regels voor veiligheid. Zo’n methode kan helpen om ruwe sociale-mediadata te temmen. Toch blijft menselijke evaluatie nodig bij gevoelige onderwerpen.
Gevolgen voor Nederland en EU
Nederlandse organisaties die Claude inzetten, vaak via AWS Bedrock in Europese regio’s, kunnen profiteren van actuelere antwoorden. Belangrijk is om te checken of klantdata niet voor training wordt gebruikt en of die in de EU blijft. Dat helpt bij naleving van de AVG en sectorregels.
Overheden en publieke diensten moeten extra letten op risico-indeling onder de AI Act. Systemen met impact op rechten of toegang tot voorzieningen kunnen in hogere risicoklassen vallen. Transparantie over gegevensbronnen en foutafhandeling is dan vereist.
Media en kennisinstellingen in de EU kunnen hun hergebruikbeleid aanscherpen. Met duidelijke opt-outs en selectieve licenties houden zij grip op archieven. Dat zet druk op AI-bedrijven om eerlijke voorwaarden te bieden.
Wat nog openstaat
Niet alle details zijn openbaar, zoals looptijd, prijs en technische beperkingen. Onbekend is ook of Anthropic de data alleen gebruikt voor context bij antwoorden, of ook voor verdere modeltraining. Zulke keuzes bepalen de mate van transparantie en de plichten onder de AI Act.
Moderatie- en kwaliteitsregels worden cruciaal. Worden gemarkeerde nepaccounts en overtredingen uit de dataset gefilterd, en hoe snel? Duidelijke afspraken beperken juridische en reputatierisico’s.
Voor Europese gebruikers blijft het belangrijk om instellingen en rechten te kennen. Wie content op X deelt, doet dat in een publiek domein, maar niet zonder voorwaarden. Licenties veranderen niets aan basisrechten zoals inzage, correctie en verwijdering.

