Sam Altman lanceert idee over seks en AI: wat betekent het voor tech?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Sam Altman lanceert idee over seks en AI: wat betekent het voor tech?

Amsterdam, 18 oktober 2025 09:35 

OpenAI-topman Sam Altman hintte deze week op een nieuwe richting: AI‑toepassingen voor intimiteit en seksueel welzijn. Hij schetste het idee van persoonlijke “AI‑companions” die dichterbij komen dan een gewone chatbot. Dat kan snel botsen met Europese regels zoals de AI‑verordening en de AVG, als zulke diensten in de EU uitkomen. Details over product, planning of naam zijn op het moment van schrijven niet bevestigd.

Altman hint op AI-intimiteit

Sam Altman staat bekend om snelle, publieke ideeënrondes rond nieuwe AI-producten. Deze week richtte hij de blik op intimiteit: een persoonlijke assistent die niet alleen praat, maar ook emotioneel nabij voelt. Zo’n AI‑companion is een chatbot of spraakassistent die een relatie simuleert. Het gaat om verkenning; er is nog geen concreet product of lanceerdatum.

Technisch sluit dit aan op de richting van OpenAI met ChatGPT en het model GPT‑4o. Dat “omni‑model” kan tekst, beeld en spraak tegelijk verwerken, wat natuurlijke gesprekken mogelijk maakt. Een intieme assistent zou daarmee levensechter klinken en reageren. Juist dat realisme roept vragen op over grenzen en verwachtingen.

AI‑companions zijn niet nieuw: apps als Replika en Character.AI bestaan al langer. Zij laten zien dat vraag naar digitale gezelschap groot is, maar ook dat moderatie lastig blijft. Veel aanbieders worstelen met leeftijdsgrenzen en expliciete inhoud. De stap van een marktleider als OpenAI zou die discussie in een stroomversnelling brengen.

Beleid rond seksuele content

OpenAI beperkt expliciete seksuele inhoud in ChatGPT, vooral om minderjarigen te beschermen. Seksueel getinte vragen worden vaak geblokkeerd en rollenspellen met expliciete details zijn niet toegestaan. Andere platforms hanteren vergelijkbare of strengere filters. Dat laat zien hoe gevoelig het domein is en hoe snel regels nodig zijn.

Als OpenAI of een andere partij een “intimiteitsmodus” zou aanbieden, zijn duidelijke leeftijdscontroles onmisbaar. Ook is transparantie vereist over wat het systeem wel en niet doet. Een AI die emoties lijkt te begrijpen, mag dat niet voordoen als echt “gevoel”. Dat moet expliciet worden gemaakt aan gebruikers.

Voor de EU‑markt geldt bovendien labeling van synthetische media. Generatieve AI is software die tekst, beeld of spraak kan maken; die output moet herkenbaar zijn als niet‑menselijk. Dat verkleint risico’s op misleiding en ongewenste verwachtingen. Het is een basis voor verantwoord gebruik in een kwetsbare context.

Europese regels stellen grenzen

De Europese AI‑verordening (AI Act) verplicht aanbieders van generatieve modellen tot risicobeperking en transparantie. Systemen die kwetsbaarheden van gebruikers uitbuiten, kunnen als hoog risico worden gezien. Ook bestaan verboden praktijken, zoals manipulatie die aanzienlijke schade kan veroorzaken. Intimiteit vraagt daarom om extra zorg in ontwerp en testing.

Daarnaast geldt de AVG, de Europese privacywet. Gegevens over iemands seksleven vallen onder “bijzondere persoonsgegevens” en vereisen uitdrukkelijke toestemming. Dataminimalisatie, versleuteling en bewaarbeperking zijn verplicht. Aanbieders moeten aantonen waarom ze zulke data nodig hebben en hoe ze worden beschermd.

In Nederland houdt de Autoriteit Persoonsgegevens toezicht op die regels. Diensten die zich op Nederlandse gebruikers richten, moeten hun instellingen privacy‑vriendelijk maken. Ook moeten zij rekening houden met het jongerenbeleid en leeftijdsverificatie. Een EU‑brede uitrol vraagt dus vroegtijdige afstemming met toezichthouders.

Onder de AVG geldt informatie over iemands seksleven als “bijzondere persoonsgegevens” die alleen met uitdrukkelijke toestemming mogen worden verwerkt.

Risico’s: deepfakes en misbruik

Een realistischer AI‑stem en -beeld maken misbruik eenvoudiger. Deepfakes zijn nepbeelden of nep-audio waarin iemands gezicht of stem is nagemaakt. Zonder stevige waarborgen kan dat leiden tot intimidatie of wraakporno. Voor slachtoffers zijn de gevolgen vaak groot en langdurig.

De AI‑verordening verplicht tot duidelijke herkomstinformatie voor synthetische media. Watermerken en inhoudslabels helpen om nep te herkennen. Initiatieven als C2PA (een standaard voor herkomstdata) worden belangrijker. Grote platforms in de EU vallen bovendien onder de DSA en moeten systemische risico’s beperken.

Nederland strafbaar stelt het verspreiden van seksueel beeldmateriaal zonder toestemming. AI‑aanbieders die tools leveren om beelden te genereren, moeten misbruik actief tegengaan. Denk aan filters, meldknoppen en snelle verwijderingen. Ook auditlogs kunnen helpen om misbruik te onderzoeken.

Kansen in zorg en welzijn

Niet alle toepassingen zijn risicovol. AI kan ook helpen bij seksuele voorlichting en relationele zorg. In de GGZ kan een goed ontworpen chatbot mensen doorverwijzen of psycho-educatie bieden. Dat vraagt wel strenge leeftijdsgrenzen en menselijke back-up.

Voor mensen die zich eenzaam voelen, kan een AI‑gesprekspartner steun bieden. Maar vervanging van menselijk contact is geen doel op zich. Ontwerpers moeten verslaving en afhankelijkheid voorkomen. Tijdslimieten, waarschuwingen en realistische verwachtingen zijn nodig.

Publieke instellingen, zoals GGD’en of scholen, kunnen experimenteren in gecontroleerde pilots. Europese projecten kunnen daarbij helpen, bijvoorbeeld rond veilige data‑infrastructuur. Zo kan de samenleving leren wat werkt en wat niet. De lat voor veiligheid en privacy blijft daarbij hoog.

Wat dit nu betekent

Op het moment van schrijven zijn er geen productnamen, prijzen of data bekend. Maar het signaal is duidelijk: AI schuift op richting emotionele en intieme domeinen. Dat vraagt om volwassen productontwikkeling én naleving van Europese regels. Zonder die basis is markttoegang in de EU onwaarschijnlijk.

Voor aanbieders liggen de prioriteiten vast: leeftijdsverificatie, strikte dataminimalisatie, lokale moderatie en transparante labels. Voor gebruikers: kies privacy‑vriendelijke instellingen en wees alert op nepmedia. Voor toezichthouders: maak duidelijke kaders voor leeftijdsgrenzen en herkomstlabels. Zo blijft innovatie mogelijk, zonder de gebruiker uit het oog te verliezen.

Of Altman dit idee doorzet, moet blijken. De impact kan groot zijn, juist in Europa met sterke consumenten‑ en privacyrechten. Wie als eerste een veilige, legale en nuttige dienst neerzet, bepaalt de standaard. De race is begonnen, maar de spelregels liggen al klaar.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>