Langetermijnisme van Musk en Altman: gevaarlijke ideologie voor AI

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Langetermijnisme van Musk en Altman: gevaarlijke ideologie voor AI

Amsterdam, 17 oktober 2025 11:47 

Techmiljardairs Elon Musk en Sam Altman liggen onder vuur om hun steun aan ‘longtermism’, een denkrichting die beleid richt op risico’s in de verre toekomst. In Silicon Valley beïnvloedt die visie investeringen en gesprekken over regels voor kunstmatige intelligentie. Critici waarschuwen deze week dat dit de aandacht afleidt van schade die nu al ontstaat door AI-systemen. Het debat raakt ook Europa, waar nieuwe regels zoals de AI-verordening andere keuzes vragen.

Kritiek op langetermijnisme groeit

Longtermism stelt dat het moreel belangrijker is om toekomstige mensheid te beschermen dan om huidige problemen op te lossen. Sam Altman, op het moment van schrijven CEO van OpenAI, en Elon Musk, oprichter van xAI en CEO van Tesla en SpaceX, spreken regelmatig over existentiële AI-risico’s. Zij vragen om stevige veiligheidsmaatregelen en soms om een pauze in ontwikkeling. Daarmee zetten zij de toon in het mondiale AI-debat.

Tegenstanders vinden de ideologie gevaarlijk omdat zij concrete, meetbare schade nu minder prioriteit geeft. Denk aan discriminatie door algoritmen, uitbuiting van datawerkers en fouten in publieke diensten. Ook kan de focus op verre toekomst macht concentreren bij bedrijven die zeggen de risico’s te kunnen beheersen. Zo verschuift het gesprek van openbaarheid en toezicht naar vertrouwen in een paar grote spelers.

Critici spreken van “een perverse, extreem problematische ideologie”.

De stroming is verwant aan Effective Altruism, een beweging die middelen wil inzetten waar ze volgens berekeningen het meeste effect hebben. Die koppeling raakte in opspraak na het fraudeproces tegen cryptomiljardair Sam Bankman-Fried in 2023. Voorstanders benadrukken dat misbruik niet de kern van de ideeën raakt. Maar het vertrouwen in deze morele rekenkunde kreeg wel een knauw.

Focus op verre toekomst

In de longtermistische logica is het voorkomen van menselijk uitsterven door AI de hoogste prioriteit. Existentiële risico’s zijn gevaren die de toekomst van de mensheid blijvend schaden. Organisaties zoals het Future of Life Institute en het Center for AI Safety brachten dat scenario publiek onder de aandacht. Daarmee kreeg het thema een vaste plaats op politieke agenda’s.

Tegelijk bouwen de genoemde bedrijven zeer krachtige modellen. OpenAI introduceerde GPT-4 en recentere modellen voor redeneren, terwijl xAI werkt aan Grok. Beide bedrijven pleiten voor veiligheidsstandaarden, audits en internationale samenwerking. Toch blijft de ontwikkelsnelheid hoog en is toezicht nog versnipperd.

De spanning zit tussen ambitie en verantwoording. Grote modellen vragen veel rekenkracht en data, wat controle in de praktijk lastig maakt. Zonder transparantie over trainingsdata en testresultaten is publiek toezicht zwak. Dan kan een retoriek van “veiligheid eerst” vooral een belofte blijven.

Risico’s voor beleid en macht

Als beleidsmakers de lange-termijn lens overnemen, kan regelgeving vooral mikken op hypothetische catastrofes. Dat klinkt verstandig, maar kan ongewenste effecten hebben. Strenge licenties en compute-drempels kunnen toetreding bemoeilijken voor universiteiten en Europese start-ups. De macht van enkele Amerikaanse bedrijven groeit dan juist.

Europa probeert dat te voorkomen met de AI-verordening (AI Act). Die wet verdeelt toepassingen in risicoklassen en legt plichten op voor hoog-risicosystemen, zoals impactanalyses en menselijk toezicht. Voor general-purpose modellen met “systemisch risico” komen extra eisen, zoals modeltests, incidentmeldingen en technische documentatie. Dat past bij de Europese nadruk op grondrechten en concurrentie.

De AVG blijft daarnaast leidend voor alle dataverwerking. Dataminimalisatie, duidelijke doelen en beveiliging zijn verplicht, ook voor generatieve modellen. Voor overheden en semipublieke instellingen wegen de “Europese AI-verordening gevolgen overheid” zwaar bij inkoop en gebruik. Transparantie naar burgers en aantoonbare risicobeheersing worden standaard.

Europa kiest andere lijn

Waar longtermism het grootste gevaar centraal zet, legt Europa de lat bij aantoonbare maatschappelijke impact. Bias, onterechte afwijzingen, surveillancerisico’s en misinformatie zijn huidige problemen die de AI Act wil beperken. De wet vraagt om uitleg bij geautomatiseerde beslissingen en om robuuste evaluaties. Dat sluit aan bij Europese rechtspraak over gelijke behandeling.

Nederland investeert in ELSA Labs, waar bedrijven, overheden en onderzoekers werken aan “Ethical, Legal and Societal Aspects” van AI. De Autoriteit Persoonsgegevens benadrukt het belang van privacy-by-design en goede DPIA’s, een verplichte risicoanalyse. Publieke organisaties moeten hun algoritmeregisters bijhouden en burgers begrijpelijk informeren. Zo krijgt toezicht vorm in het dagelijks werk, niet alleen in crisisscenario’s.

De komende jaren treden delen van de AI Act stapsgewijs in werking. Organisaties moeten nu al inventariseren welke systemen onder de wet vallen. Voor aanbieders van grote modellen betekent dit investeren in documentatie, evaluatie en beveiliging. Dat is concreter dan discussies over verre toekomsten.

Wat nu echt speelt

De kern van het debat is niet of veiligheidsonderzoek nodig is, maar waar de focus ligt. Langetermijnscenario’s mogen aandacht krijgen, maar niet ten koste van huidige rechten en concurrentie. Beleidskeuzes bepalen wie controle heeft: publieke instanties en onafhankelijke onderzoekers, of een paar private laboratoria. Die keuze is nu aan wetgevers en toezichthouders.

Voor bedrijven is de opdracht helder: bewijs leveren dat modellen veilig, eerlijk en uitlegbaar werken. Dat vraagt om onafhankelijke audits, transparante evaluaties en duidelijke gebruikersinformatie. Zonder die basis blijft “veiligheid” een marketingterm. Met die basis wordt het een meetbare norm.

Voor burgers telt vooral of systemen betrouwbaar en uitlegbaar zijn in zorg, onderwijs en overheid. Rechten uit de AVG, zoals inzage en bezwaar, gelden ook voor AI-gestuurde beslissingen. Europese regels maken dat afdwingbaar, ook tegen machtige platforms. Daarmee verschuift het gesprek van ideologie naar handhaving.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>