Signal-oprichter lanceert chatbot die je gesprekken écht privé houdt

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Signal-oprichter lanceert chatbot die je gesprekken écht privé houdt

Amsterdam, 19 januari 2026 09:34 

Moxie Marlinspike, oprichter van chatapp Signal, werkt aan een nieuwe chatbot die gesprekken echt privé wil houden. Het project wordt internationaal ontwikkeld en richt zich op dagelijks gebruik, ook in Europa. De aankondiging kwam recent naar buiten en trekt veel aandacht in de techwereld. Het doel is een assistent die helpt zonder persoonlijke data te verzamelen of te delen.

Privacy staat centraal

De belofte is duidelijk: een hulpzame chatbot zonder meekijkers. Waar veel systemen gebruikersdata opslaan of gebruiken om modellen te trainen, wil dit project dat vermijden. Dat moet passen bij de filosofie van Signal, dat bekendstaat om eind-tot-eindversleuteling.

Een chatbot verwerkt tekst om een antwoord te genereren. Daarbij ontstaat vaak metadata, zoals tijdstip of apparaat. Het nieuwe ontwerp zegt die sporen te willen beperken of lokaal te houden.

Veel bedrijven bieden wel een “privacy‑modus”, maar die is vaak opt-in en ondoorzichtig. Hier is het uitgangspunt privacy‑by‑design: standaard zo min mogelijk data en geen hergebruik voor training. Dat sluit aan bij dataminimalisatie uit de AVG.

“Eind-tot-eindversleuteling betekent dat alleen zender en ontvanger berichten kunnen lezen, niet de aanbieder.”

Techniek zonder meekijkers

Er zijn meerdere manieren om privé te werken met AI. On-device verwerking laat het model op de telefoon of laptop draaien, zodat data het apparaat niet verlaat. Een andere route is berekenen in een afgeschermde omgeving, zoals een ‘secure enclave’, waarbij de aanbieder zelf de inhoud niet kan zien.

Versleuteling in gebruik, oftewel encryptie tijdens het rekenen, is een derde optie. Dat is technisch zwaar maar veelbelovend. Ook kan het systeem geen logs opslaan en alleen tijdelijke context gebruiken, zodat er geen profiel ontstaat.

Welke aanpak het team kiest, is op het moment van schrijven niet publiek. De ontwikkelaars zullen moeten balanceren tussen snelheid, kosten en privacy. Grotere modellen vragen meer rekenkracht, wat lastig is voor apparaten met een zwakke chip of beperkte batterij.

Verschil met grote chatbots

Populaire diensten zoals OpenAI’s ChatGPT en Google Gemini draaien vooral in de cloud. Ze bieden instellingen om prompts niet te gebruiken voor training, maar standaard blijft er vaak telemetrie over. Bij een privacy‑first chatbot wordt die stroom juist teruggedrongen of geblokkeerd.

Er zijn ook alternatieven met lokale modellen, zoals Llama 3 (Meta) en Mistral die op een laptop kunnen draaien. Die varianten vergen meer technische kennis en leveren soms mindere kwaliteit. Het nieuwe project wil die kloof dichten: eenvoudig in gebruik én privacyvriendelijk.

Voor organisaties kan dit het verschil maken tussen een proef en productie. Juridische en zorgteams willen vaak geen gevoelige gegevens buiten de deur zetten. Een privé‑assistent verlaagt dan de drempel om AI breder in te zetten.

Gevolgen AI-verordening overheid

De Europese AI-verordening (AI Act) stelt eisen aan algemene AI-systemen en transparantie. Een privacy‑first ontwerp kan helpen om aan die regels te voldoen. Minder datadeling betekent minder risico en eenvoudiger documentatie.

Voor overheden in Nederland is dit extra relevant. Zij vallen onder strikte inkoop- en privacyregels en moeten DPIA’s uitvoeren. Een assistent die lokaal draait of geen data hergebruikt, past beter bij die eisen.

Ook de AVG blijft leidend. Dataminimalisatie, doelbinding en beveiliging door ontwerp zijn kernpunten. Als er geen persoonsgegevens de cloud in gaan, wordt de juridische beoordeling overzichtelijker.

Nog veel onbekend

Er zijn belangrijke open vragen. Hoe goed is de chatbot vergeleken met grote cloudmodellen? En hoe worden misbruik, hallucinaties en schadelijke outputs voorkomen zonder zware serverfilters?

Transparantie is hier cruciaal. Onafhankelijke audits, security‑reviews en eventueel open-source componenten vergroten vertrouwen. Zonder aantoonbaar sterke bescherming is “privacy‑first” slechts een belofte.

Ook het verdienmodel telt. Als er geen data verkocht of hergebruikt wordt, moeten inkomsten uit licenties of apparaten komen. Dat kan de prijs verhogen en de uitrol vertragen.

Toepassing in Nederland

Voor zorginstellingen, advocaten en gemeenten kan een privé‑chatbot direct nuttig zijn. Denk aan samenvattingen van dossiers of hulp bij formulieren, zonder dat gegevens het netwerk verlaten. Dat verkleint de kans op datalekken en klachten bij de Autoriteit Persoonsgegevens.

Onderwijsinstellingen kunnen studenten een veilige assistent bieden. Dat past bij beleid rond digitale weerbaarheid. Ook bedrijven met strikte compliance‑eisen krijgen meer speelruimte om AI intern te gebruiken.

Op het moment van schrijven is er geen releasedatum of productnaam gedeeld. Toch zet het initiatief druk op de markt. Grote spelers zullen privacy‑opties moeten verbeteren als gebruikers dit alternatief aantrekkelijk vinden.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>