Elon Musk eist een megaschadevergoeding van OpenAI en Microsoft in de Verenigde Staten. Hij stelt dat het moederbedrijf van ChatGPT zijn oorspronkelijke belofte heeft gebroken. Het gaat om de koers van non-profit naar een commerciƫle strategie. De zaak kan gevolgen hebben voor de Europese AI-verordening en voor overheden die AI inkopen.
Musk legt megaclaim neer
De ondernemer wil OpenAI en partner Microsoft financieel aansprakelijk stellen. Hij zegt dat OpenAI niet langer open en onafhankelijk opereert. Volgens Musk is het bedrijf te veel gericht op winst en exclusieve licenties. Het geschil draait om afspraken uit de beginjaren van de organisatie.
ChatGPT en het taalmodel GPT-4 zijn centrale onderdelen van de klacht. Deze systemen zijn generatieve AI: software die op basis van voorbeelden nieuwe tekst en beelden maakt. Musk vindt dat de werking en training van deze modellen te gesloten zijn. Dat zou botsen met de oorspronkelijke missie van OpenAI.
OpenAI en Microsoft hebben op het moment van schrijven geen uitgebreide inhoudelijke reactie gedeeld. In eerdere discussies benadrukten zij veiligheid en verantwoordelijkheid. Ook wijzen de bedrijven vaak op voordelen voor gebruikers en ontwikkelaars. De hoogte van de gevraagde schadevergoeding is niet publiek bevestigd.
Twist over non-profit belofte
OpenAI begon in 2015 als non-profit met een open onderzoeksdoel. In 2019 kwam er een winstgedreven tak, OpenAI LP, om geld op te halen voor rekenkracht en talent. Daarbij veranderden licenties en publicatiepraktijken. Documentatie en modeldetails werden selectiever gedeeld.
Musk stelt dat deze draai de basisafspraak heeft aangetast. Openheid en brede toegang zouden hebben plaatsgemaakt voor exclusiviteit. Daarmee zouden anderen in het nadeel komen. Dat raakt ook onderzoeksgemeenschappen die afhankelijk zijn van transparantie.
De ondernemer is zelf actief met xAI en het model Grok. Dat maakt zijn rol dubbel: mede-oprichter en concurrent. Critici zien daarom ook strategische motieven achter de stap. De zaak kan zo zowel juridisch als marktgericht uitpakken.
Microsofts rol en belangen
Microsoft investeerde miljarden in OpenAI en levert clouddiensten via Azure. Het bedrijf integreert GPT-4 in Copilot voor Windows en Microsoft 365. Ook verkoopt het toegang tot modellen via Azure OpenAI Service. Die keten geeft Microsoft een directe commerciƫle prikkel.
Volgens Musk versterkt deze band de verschuiving naar gesloten technologie. Exclusieve rechten en infrastructuur zouden de markt sturen. Voor Europese klanten betekent dit afhankelijkheid van ƩƩn leverancier. Dat kan keuzevrijheid en onderhandelingsmacht beperken.
Microsoft wijst doorgaans op veiligheid, compliance en klantcontrole. Bedrijfsdata zouden gescheiden en versleuteld zijn. Toch blijft de kernvraag hoe transparant de onderliggende datamodellen zijn. Zonder inzicht is het lastig risicoās volledig te beoordelen.
Europese regels spelen mee
De Europese AI-verordening (AI Act) stelt eisen aan algemene-doel AI, zoals GPT-4. Ontwikkelaars moeten technische documentatie, evaluaties en veiligheidsmaatregelen tonen. Voor zeer krachtige modellen gelden extra plichten vanwege systemisch risico. Dat raakt direct OpenAI en aanbieders als Microsoft.
De AI-verordening verplicht aanbieders van algemene-doel AI-modellen tot risicobeoordelingen, transparantie over capaciteiten en passende veiligheidsmaatregelen; zeer krachtige modellen vallen onder extra regels voor systemisch risico.
Overheden en publieke instellingen in Nederland moeten daar rekening mee houden. Inkoop van AI-diensten vereist toetsing op transparantie en hergebruik van data. Ook dataminimalisatie en beveiliging volgen uit de AVG. Leveranciers moeten kunnen aantonen hoe modellen trainen en filteren.
Als de rechtszaak de openheid van technische informatie vergroot, kan dat de AI Act-doelen ondersteunen. Blijft alles gesloten, dan stijgt de druk op audits door derden. In beide scenarioās groeit de documentatielast voor aanbieders. Dat kan kosten en doorlooptijden verhogen.
Impact voor klanten in EU
Bedrijven die ChatGPT, GPT-4 of Copilot gebruiken, moeten hun risicoanalyse updaten. Contracten met OpenAI of Microsoft moeten rekening houden met transparantie-eisen. Ook is het verstandig om exit-strategies te hebben. Zo voorkom je lock-in als licenties of toegang wijzigen.
Voor de overheid is de Europese AI-verordening gevolgen overheid direct. Aanbestedingen vragen om duidelijke technische bijlagen en audits. Denk aan logging, contentfilters en menselijke controle. Zonder deze waarborgen kan inzet van generatieve systemen stilvallen.
Privacy blijft een kernpunt onder de AVG. Gegevens mogen alleen worden verwerkt als dat nodig en rechtmatig is. Anonimisering en versleuteling zijn standaardvereisten. Organisaties moeten kunnen uitleggen wat het model doet met input en output.
Vervolg en onzekerheden
De uitkomst van de claim is onzeker. De rechter zal eerst kijken naar de juridische basis. Gaat het om een bindende afspraak, of vooral om een missieverklaring? Dat bepaalt of schade verhaald kan worden.
Ondertussen loopt de dienstverlening door. Microsoft en OpenAI blijven producten leveren in Europa. Wel kan het debat leiden tot meer druk op transparantie. Dat past bij de richting van de AI Act.
Voor gebruikers is het advies nuchter: documenteer gebruik, meet prestaties en beheer risicoās. Vraag leveranciers om modelkaarten en evaluaties. En leg afspraken vast over updates en datagebruik. Zo blijft de continuĆÆteit gewaarborgd, ongeacht de rechtszaak.
