Ontwikkelaars in het Cardano-ecosysteem zetten deze week sterker in op kunstmatige intelligentie en quantum computing. Zij willen zo nieuwe apps bouwen en het netwerk klaarstomen voor toekomstige beveiligingsrisico’s. De stap speelt ook in Europa, waar de Europese AI-verordening gevolgen overheid en bedrijven dwingt tot duidelijke keuzes. Het doel is meer gebruik, betere veiligheid en een stevigere positie naast grotere netwerken.
Cardano zoekt AI-koppeling
Teams rond Cardano verkennen AI-functies in wallets, gedecentraliseerde apps en ontwikkeltools. Een AI-model is een algoritme dat patronen leert uit data om voorspellingen of beslissingen te doen. In combinatie met een blockchain kan zo’n model zorgen voor transparante logging en betere controle op wie wat doet. Het ecosysteem mikt daarmee op praktischer gebruik voor gewone gebruikers.
Input Output Global (IOG), het bedrijf achter Cardano, stimuleert al langer tooling voor veilige smart contracts. AI kan die ontwikkeling versnellen, bijvoorbeeld door code te controleren of door risico’s in DeFi zichtbaar te maken. Zulke assistenten werken meestal off-chain, met bewijs of samenvattingen die on-chain worden vastgelegd. Dat beperkt kosten en houdt het netwerk schaalbaar.
Ook voor ondersteuning van klanten en transacties kan een chatbot in de wallet helpen. Die legt stappen uit in eenvoudig Nederlands, waarschuwt voor phishing en checkt adres- en bedragvelden. Voor beginnende gebruikers verlaagt dit de drempel. Voor aanbieders verkleint het de kans op fouten en klachten.
Quantumveiligheid wordt prioriteit
Quantumcomputers kunnen op termijn de versleuteling kraken waarop veel blockchains leunen. Cardano-ontwikkelaars onderzoeken daarom post-quantum cryptografie, die bestand is tegen zulke aanvallen. Migreren is complex en kost jaren, dus vroege voorbereiding is logisch. Standaarden uit het NIST-proces, zoals CRYSTALS-Kyber en Dilithium, gelden hierbij als richtingwijzers.
Post-quantum cryptografie is versleuteling die bestand is tegen aanvallen van toekomstige quantumcomputers.
Een overstap vraagt meer dan alleen nieuwe handtekeningen. Sleutels en transacties worden groter, wat invloed heeft op snelheid en opslag. Hybride oplossingen, met klassieke én post-quantum handtekeningen, bieden een tussenstap. Governance en een netwerkbrede hard fork blijven daarbij onvermijdelijk.
In Europa verhoogt het Quantum Flagship-programma de druk om digitale diensten te beschermen. Ook financiële instellingen en overheden willen weten of hun systemen toekomstbestendig zijn. Voor Cardano-projecten die met publieke diensten koppelen, wordt tijdige testen dus belangrijk. Op het moment van schrijven werken meerdere teams aan ontwerpen en proefopstellingen.
EU AI-verordening stuurt keuzes
De Europese AI-verordening (AI Act) geeft regels voor risicovolle algoritmen en voor generatieve modellen. Een Cardano-app die bijvoorbeeld kredietbeoordeling of identiteitscontrole automatiseert, valt snel in een hoge risicoklasse. Dan zijn eisen van toepassing, zoals documentatie, bias-tests en menselijk toezicht. Dat beïnvloedt direct hoe functies in wallets en dApps worden ontworpen.
De AVG blijft intussen leidend voor persoonlijke data. Dataminimalisatie, versleuteling en duidelijke grondslagen zijn verplicht. Omdat data op een blockchain niet zomaar te wissen zijn, kiezen ontwikkelaars vaker voor off-chain opslag met hash-verwijzingen. Selectieve onthulling met zero-knowledge-technieken kan helpen bij naleving.
Voor Nederlandse organisaties spelen ook toezicht en inkoop mee. De Autoriteit Persoonsgegevens en, waar relevant, de ACM kijken naar naleving en consumentenbescherming. Overheden moeten bij inkoop nagaan of AI-componenten voldoen aan de AI Act en de AVG. Zo krijgt “Europese AI-verordening gevolgen overheid” concrete impact op architectuur en leverancierskeuze.
Eerste toepassingen voor gebruikers
Gebruikers kunnen AI-assistenten in Cardano-wallets krijgen die transacties uitleggen en risico’s duiden. In DeFi kunnen algoritmen liquidatierisico, kosten en slippage in makkelijke taal toelichten. Dit vergroot financiële geletterdheid en helpt fouten voorkomen. Het past bij de wens om crypto bruikbaar te maken voor een breed publiek.
Voor digitale identiteit is er Atala PRISM, de identiteitsoplossing van IOG. In combinatie met AI kan verificatie sneller en consistenter worden, bijvoorbeeld bij het checken van diploma’s. Europese onderwijs- en zorginstellingen testen al met verifiable credentials. Extra waarborgen zijn nodig, omdat biometrie en gevoelige data extra risico meebrengen.
Ook voor marktsignalen en portfoliohulp duiken AI-tools op. Zulke systemen geven suggesties, maar vervangen geen eigen onderzoek. MiCA, de EU-regulering voor crypto-activa, stelt eisen aan aanbieders die advies-achtige diensten doen. Duidelijke disclaimers en logging van beslisregels worden daarmee belangrijk.
Risico’s en beperkingen
AI-modellen kunnen fouten maken of “hallucineren”. Zonder goede testen en audits kan dat direct geld kosten in financiële apps. Transparantie over data, training en evaluatie helpt risico’s te beperken. Modelkaarten en onafhankelijke audits worden daarom standaardpraktijk.
Technisch is volledig on-chain AI nu niet haalbaar. Rekenen is duur en data passen niet in blokken. De praktijk wordt een mix van off-chain berekening, on-chain verifieerbaarheid en oracles. Onderzoek naar verifieerbare AI en zkML is veelbelovend, maar nog vroeg.
Ten slotte speelt governance. Wie is aansprakelijk als een gedecentraliseerde app met AI schade veroorzaakt: ontwikkelaars, een DAO of de provider van het model? Europese regels kijken naar “economische actoren” en feitelijke controle. Projecten doen er goed aan duidelijke rollen, contactpunten en incidentprocessen vast te leggen.
