In New York beloven Humane, Rabbit en Inflection AI een “AI‑vriend” die altijd met je meeloopt. Op straat en in de metro blijkt die belofte lastig waar te maken. Bewoners en winkels zijn kritisch vanwege privacy en nut. Voor Nederland en Europa spelen bovendien de AVG en de Europese AI‑verordening direct mee.
Hype botst met stadspraktijk
Start-ups presenteren de AI‑vriend als een handige metgezel die je stem begrijpt en context onthoudt. De Humane AI Pin en de Rabbit R1 staan voor die visie: een klein apparaat dat luistert, antwoordt en taken uitvoert. Meta kiest met de Ray‑Ban smartglasses voor een bril met camera en spraakgestuurde assistent. Inflection AI biedt Pi, een praatgrage chatbot die steun en advies wil geven.
In de drukte van New York werkt dat minder soepel dan in demo’s. Geluid op straat en in de metro bemoeilijken spraakherkenning, een basisfunctie van zulke systemen. Wachttijden door dataverkeer en zwakke verbindingen leiden tot haperende antwoorden. Daardoor voelt het hulpmiddel vaak traag op momenten dat snelheid telt.
Ook de sociale context is anders dan in een testlab. Apparaten met camera of microfoon trekken aandacht en roepen weerstand op. In winkels, kantoren en theaters gelden regelmatig regels tegen filmen en opnemen. Dat remt het gebruik in alledaagse situaties.
Apparaten werken nog gebrekkig
De Humane AI Pin en Rabbit R1 leunen op grote taalmodellen, systemen die tekst voorspellen op basis van patronen. Die modellen zijn handig voor korte vragen, maar kunnen nog fouten maken of antwoorden verzinnen. In het verkeer of bij medische tips is dat een risico. Daardoor blijft de AI‑vriend veilig vooral bij luchtige smalltalk of simpele taken.
Ook batterijduur en warmte vormen grenzen in draagbare apparaten. Een hele dag actief luisteren en verwerken vraagt veel energie. Dat dwingt fabrikanten tot compromis: minder functies, of vaker opladen. Voor forenzen die lang onderweg zijn, is dat onhandig.
Smartglasses met assistent gaan een stap verder, maar botsen op dezelfde problemen. Herkenning van objecten via de camera is wisselend in drukke, slecht verlichte omgevingen. Bovendien speelt hier publieke acceptatie. Mensen willen niet ongevraagd in beeld komen, zeker niet in een volle metro.
Privacy en sociale norm schuiven mee
Een AI‑vriend verwerkt vaak zeer persoonlijke gegevens, zoals stemming, locatie en routines. Onder de AVG geldt dataminimalisatie: alleen verzamelen wat echt nodig is, liefst lokaal en versleuteld. Transparantie is verplicht, inclusief uitleg waarom data worden gebruikt en hoe lang ze worden bewaard. Voor Nederlandse gebruikers is dat een harde randvoorwaarde.
Eerdere discussies rond Replika, een chatapp voor gezelschap, tonen waar het kan knellen. In Europa kwam er aandacht voor minderjarige gebruikers en gevoelige data. Dat leidde tot extra waarborgen, zoals leeftijdsgrenzen en betere moderatie. Zulke eisen beïnvloeden nu ook nieuwe “vriendelijke” modellen en wearables.
In een stad als New York werken bovendien ongeschreven regels. Mensen vragen om duidelijke signalen als er wordt opgenomen. Fabrikanten experimenteren met lampjes of geluiden als “opname‑indicator”. Maar die oplossing is pas geloofwaardig als hij standaard, zichtbaar en niet te omzeilen is.
Een AI‑vriend is een chatbot of draagbaar apparaat dat persoonlijke gesprekken voert, context onthoudt en advies geeft, vaak via spraak.
AI‑verordening stuurt ontwerpkeuzes
De Europese AI‑verordening (AI Act) verplicht aanbieders van generatieve systemen tot duidelijke labeltjes en gebruiksinformatie. Chatbots moeten herkenbaar zijn als niet‑menselijk. Emotieherkenning wordt in gevoelige domeinen sterk beperkt, zoals in onderwijs en op het werk. Voor AI‑vrienden die “emotionele steun” bieden, is dat richtinggevend.
Voor Nederlandse organisaties betekent dit praktische gevolgen. Overheden en zorginstellingen moeten vooraf risico’s inschatten en registreren. Dat geldt zeker als een AI‑vriend wordt ingezet voor kwetsbare groepen. Publieke diensten vallen onder strengere eisen rond veiligheid, uitlegbaarheid en klachtenafhandeling.
Daarnaast blijven de AVG en internationale doorgifte-eisen van kracht. Opslag in de VS kan, maar alleen met passende waarborgen en contracten. Dat dwingt aanbieders om datastromen te beperken of te verplaatsen. Europese hosting en end‑to‑end‑versleuteling worden daardoor aantrekkelijker.
Markt zoekt realistische inzet
De meest kansrijke route lijkt minder op een losse “AI‑vriend” en meer op functies in bestaande apparaten. Denk aan assistenten in smartphones of in brillen met duidelijke privacy‑indicatoren. Grote bedrijven als Meta en Apple sturen daarop, omdat distributie en updates dan eenvoudiger zijn. Dat sluit beter aan bij het dagelijks gebruik van consumenten.
Voor start-ups ligt de lat daardoor hoger. Ze moeten bewijzen dat hun apparaat meerwaarde biedt boven apps die al op de telefoon staan. Ook moeten ze aantonen dat data veilig blijven en dat de assistent betrouwbaar is. Zonder dat vertrouwen blijft de doelgroep klein.
In de Nederlandse context kan de meerwaarde vooral liggen in duidelijke niches. Begeleiding in het onderwijs, mits zonder emotieprofilering en met toestemming. Of ondersteuning in het openbaar vervoer met privacy‑vriendelijke, offline functies. Daar is de combinatie van nut en naleving het sterkst.
New York als stresstest
New York fungeert onbedoeld als stresstest voor de “AI‑vriend”. Wat daar werkt in lawaai, drukte en sociale controle, werkt waarschijnlijk ook in Europese steden. Tot nu toe valt die test tegen: de techniek helpt, maar is nog geen vanzelfsprekende metgezel. De kloof tussen demo en dagelijks leven blijft groot.
Voor fabrikanten is de opdracht helder. Minder frictie, betere batterij, en vooral: transparante omgang met data. Voor beleidsmakers is handhaafbare regelgeving cruciaal, zodat burgers weten waar ze aan toe zijn. En voor gebruikers geldt: eerst vertrouwen winnen, dan pas altijd‑aan.
De uitkomst is geen afwijzing van kunstmatige intelligentie, maar een realitycheck. Een AI‑vriend moet zich sociaal en juridisch gedragen als een goede buur. Pas dan krijgt het concept kans buiten de demozaal. In New York, en in Nederland.
