Palantir Technologies ziet zijn aandeel deze week fors stijgen in New York. Op het moment van schrijven bedraagt de dagwinst 7,39 procent. Het bedrijf meldt sterke omzetgroei in het vierde kwartaal, gedreven door vraag naar zijn AI-platform AIP. Deze ontwikkeling raakt ook aan de Europese AI-verordening en de gevolgen voor overheid en bedrijven in de EU.
AIP stuwt commerciƫle vraag
Palantir verkoopt drie hoofdproducten: Gotham voor overheden, Foundry voor bedrijven en het Artificial Intelligence Platform (AIP). AIP is software waarmee organisaties veilige AI-toepassingen kunnen bouwen op hun eigen data. Het werkt met grote taalmodellen (LLMās), systemen die tekst begrijpen en genereren, en koppelt die aan bedrijfsprocessen.
Steeds meer klanten testen AIP in afgebakende projecten en schalen daarna op. Daarbij gaat het om sectoren als industrie, financiƫle dienstverlening, zorg en overheid. Klanten zoeken vooral besluitondersteuning, procesautomatisering en betere zoek- en analysefuncties over grote datasets.
De vierdekwartaalupdate laat zien dat deze vraag doorzet. Palantir spreekt over duidelijk hogere omzet en meer activiteit bij bestaande klanten. Het bedrijf legt de nadruk op praktische toepassingen, zoals AI-assistenten die medewerkers helpen met rapportage, planning en risicosignalering.
Koers reageert op kwartaalupdate
Beleggers waarderen de versnelling in AI-adoptie en omzetgroei. Op het moment van schrijven noteert het aandeel een dagwinst van 7,39 procent op de New York Stock Exchange. De markt rekent erop dat bedrijven ook in 2025 en 2026 meer gaan uitgeven aan bruikbare AI, niet alleen aan experimenten.
Dagwinst Palantir-aandeel: 7,39% op het moment van schrijven.
Tegelijk blijft het aandeel gevoelig voor grote contracten en nieuws rond generatieve AI. De waardering hangt sterk af van het tempo waarin proefprojecten uitgroeien tot brede invoering. Het pad blijft dus volatiel, zeker nu veel concurrenten vergelijkbare AI-functies aanbieden.
Voor Europese beleggers speelt ook valutarisico en regelgeving mee. Projecten in zorg en overheid kennen langere besluitvorming en strengere eisen. Dit maakt groei stabieler, maar soms trager dan in minder gereguleerde markten.
AI-verordening stuurt inzet
De Europese AI-verordening (AI Act) classificeert AI-toepassingen naar risico en stelt eisen aan onder meer datakwaliteit, menselijk toezicht en logging. In sectoren als zorg, finance en publieke dienstverlening vallen veel toepassingen in de categorie āhoog risicoā. Organisaties moeten daarom kunnen aantonen dat hun systemen veilig en uitlegbaar zijn.
Daarnaast geldt de AVG: dataminimalisatie, doelbinding en passende beveiliging, zoals versleuteling. Werkt een AI-toepassing met gevoelige persoonsgegevens, dan is een Data Protection Impact Assessment (DPIA) verplicht. Publieke instellingen vragen steeds vaker om EU-datageografie en strikte toegangscontrole.
Leveranciers moeten transparantie bieden over gebruikte modellen, dataherkomst en maatregelen tegen fouten of vooroordelen. Denk aan auditlogs, uitleg van modeluitkomsten en monitoring van prestaties. Als data de EU verlaten, zijn contractuele waarborgen, zoals Standard Contractual Clauses, nodig.
Gevolgen voor Nederlandse gebruikers
Voor Nederlandse organisaties liggen de kansen in productiviteit en beter datagebruik. Zorginstellingen kunnen sneller dossiers doorzoeken; gemeenten kunnen toezicht en klantcontact stroomlijnen; maakbedrijven kunnen onderhoud plannen met voorspellende algoritmen. Tegelijk moeten beslissingen door mensen worden getoetst, zeker waar burgerrechten spelen.
Praktisch begin je met kleine, afgebakende pilots met duidelijke doelen. Leg vast welke data gebruikt worden en waarom, en wie verantwoordelijk is. Betrek vroeg de functionaris gegevensbescherming, de ondernemingsraad en, waar nodig, de privacytoezichthouder.
Bij inkoop is helderheid nodig over de gebruikte modellen (bijvoorbeeld LLMās), beperkingen en een āuitknopā als iets fout gaat. Vraag om logging, toegangsrechten op het minste-privilege-principe en controles op bias. Zo blijft de inzet van AI rechtmatig, uitlegbaar en beheersbaar.
Grenzen van huidige systemen
Generatieve AI kan soms onjuiste of verzonnen antwoorden geven, zogeheten āhallucinatiesā. Bedrijven beperken dit door modellen te koppelen aan gecontroleerde bedrijfsdata, een methode die bekendstaat als retrieval augmented generation (RAG). Toch blijft menselijke controle nodig bij gevoelige taken.
Integratie met bestaande IT is vaak de grootste hobbel. Data zitten verspreid over systemen, met verschillende kwaliteit en rechten. Zonder goede datacatalogi, toegangsbeheer en metadata is de waarde van AI beperkt.
Ook veiligheid vraagt aandacht: strenge toegangscontrole, scheiding van rollen en testen tegen misbruik van prompts. Continue monitoring en incidentrespons zijn noodzakelijk, zeker in publieke diensten. Dit sluit aan bij de eisen uit de AI-verordening en de AVG.
