ChatGPT van OpenAI sluit in een recente analyse aan bij de langetermijnvisie van Michael Saylor, voorzitter van MicroStrategy. Het model schetst een scenario waarin Bitcoin rond 2035 naar ongeveer 1,4 miljoen dollar kan stijgen. De redenering draait om schaarste, institutionele vraag en technologische adoptie. De discussie is ook relevant voor Europa, door de Europese AI-verordening en de MiCA-regels voor cryptodiensten.
ChatGPT schetst stijgingsscenario
Het taalmodel ChatGPT werd gevraagd naar de mogelijke prijs van Bitcoin in 2035. Het antwoord kwam uit bij een optimistisch scenario dat in lijn ligt met Saylors veelbesproken verwachting. Saylor is bekend als vroege Bitcoin-koper met MicroStrategy, dat de digitale munt op de bedrijfsbalans zette. De uitkomst voedt het debat over hoe ver algoritmen kunnen gaan in financiƫle duiding.
ChatGPT benoemt vaak factoren als toenemende vraag van grote beleggers en periodieke halveringen. Een halvering is een vaste verlaging van de beloning voor Bitcoin-miners, waardoor er minder nieuwe munten bij komen. Dit kan prijsdruk omhoog geven als de vraag gelijk blijft of stijgt. Ook wijst het model op een breder gebruik van Bitcoin als digitaal oppotmiddel.
Het model presenteert dit als een scenario, geen zekerheid. Prijzen op cryptomarkten blijven volatiel en gevoelig voor regelgevingsnieuws. Macro-economie en technische storingen kunnen de markt snel keren. Dat alles maakt de voorspelbaarheid beperkt, ook voor een geavanceerd systeem.
Onderbouwing draait om schaarste
De kern van de redenering is schaarste. Bitcoin heeft een maximale voorraad, en de instroom daalt elke vier jaar door halveringen. Daardoor lijkt het op digitale goudschaarste, zeggen voorstanders. Bij blijvende vraag kan dat de prijs ondersteunen op lange termijn.
Bitcoin kent een vaste bovengrens van 21 miljoen munten.
Het schaarsteverhaal staat of valt met adoptie. Als meer bedrijven, fondsen en overheden Bitcoin opnemen, neemt de vraag toe. Blijft die vraag uit of keert het beleid, dan verdwijnt een deel van de steun. Het is dus geen wiskundige wet, maar een aanname.
Daarnaast telt de staat van het netwerk mee. Veiligheid, energiegebruik en transactiekosten beĆÆnvloeden gebruik en vertrouwen. Technische verbeteringen kunnen frictie verlagen, maar problemen kunnen ook afschrikken. Zulke factoren zitten slechts beperkt in een tekstmodel.
Beperkingen van AI-voorspellingen
ChatGPT is een taalmodel dat patronen in tekst voorspelt, geen financieel analysetool. Het werkt met waarschijnlijkheden en kan geen toekomstige gebeurtenissen zien. Het model heeft bovendien geen menselijk begrip van risico. Dat kan leiden tot overtuigend klinkende, maar onzekere antwoorden.
Generatieve systemen kunnen fouten maken of āhallucinerenā. Ze vullen dan ontbrekende kennis aan met aannemelijke, maar onjuiste details. Zonder bronverwijzing is controle lastig. Dit vraagt om extra voorzichtigheid bij financiĆ«le onderwerpen.
OpenAI waarschuwt dat ChatGPT geen beleggingsadvies geeft. Veel platforms plaatsen daarom disclaimers en verwijzen naar eigen onderzoek. Voor beleggers blijft het verstandig om meerdere bronnen te raadplegen. En om keuzes af te stemmen op doelen, risico en tijdshorizon.
Europese regels voor AI en crypto
De Europese AI-verordening (AI Act) eist transparantie van generatieve AI over beperkingen en herkomst van inhoud. Op het moment van schrijven werken EU-instellingen aan de uitrol en handhaving in fases. Diensten die AI inzetten voor financiƫle communicatie moeten duidelijk zijn over aannames. Dit moet misleiding en overclaimen beperken.
Voor crypto geldt in de EU de Markets in Crypto-Assets-verordening (MiCA). Aanbieders moeten eerlijk en niet-misleidend communiceren, ook in marketing. Als bedrijven AI gebruiken voor productinformatie, vallen die uitingen onder dezelfde regels. Nationale toezichthouders kunnen handhaven bij overtredingen.
Verzamelt een chatbot persoonsgegevens, dan geldt de AVG. Dat betekent dataminimalisatie, een grondslag en beveiliging, zoals versleuteling. Europese burgers hebben recht op inzage en correctie. Bedrijven moeten dit proces inrichten vóór ze AI breed inzetten.
Gevolgen voor Nederlandse belegger
De Autoriteit FinanciĆ«le Markten (AFM) en De Nederlandsche Bank waarschuwen al langer voor cryptorisicoās. Grote koersschommelingen en fraude komen voor. Een AI-hulpje verandert dat risicoprofiel niet. Zie modellen als hulpmiddel voor scenarioās, niet als orakel.
Platforms die AI inzetten bij productkeuze moeten oppassen voor impliciet advies. Valt communicatie onder beleggingsadvies, dan gelden strenge regels zoals onder MiFID II. Crypto valt niet altijd in dat kader, maar consumentenrecht en MiCA blijven wel gelden. Dat vraagt om heldere waarschuwingen en toetsbare claims.
Voor particulieren geldt een praktische checklist. Check bronnen, vraag naar aannames en zoek tegengeluid. Let op kosten, belastingen en beveiliging van rekeningen. Neem pas beslissingen na eigen onderzoek.
Wat deze hype laat zien
De aandacht voor de 1,4 miljoen-dollarclaim laat zien hoe snel mensen AI-uitspraken gewicht geven. Een concreet getal werkt als anker, ook als de onzekerheid groot is. Dat vergroot de kans op overschatting. Kritisch lezen blijft nodig.
AI is nuttig voor uitleg en scenario-denken. Het kan factoren rangschikken en verbanden uit eerdere data beschrijven. Maar exacte prijspunten geven schijnzekerheid. Beter is het om met bandbreedtes en voorwaarden te werken.
Voor makers en media ligt hier een taak. Geef context, benoem aannames en toon onzekerheid expliciet. Link naar methodes of data waar mogelijk. Zo blijft AI informatief zonder onterechte zekerheid te wekken.
