OpenAI en Foxconn kondigen deze week een samenwerking aan in de Verenigde Staten. Ze willen samen AI-infrastructuur en een betrouwbare toeleveringsketen opbouwen. Het doel is meer rekenkracht voor systemen zoals ChatGPT en toekomstige datamodellen. De stap raakt ook aan de Europese AI-verordening gevolgen overheid en aan beleid voor datacenters en chips.
Foxconn levert industriële ruggengraat
Foxconn, bekend van grootschalige elektronicaproductie, gaat zijn productie-ervaring inzetten voor servers en AI-hardware. Het bedrijf bouwt en assembleert normaliter op grote schaal en dicht bij klanten. Dat kan helpen om leveringstijden en kosten voor AI-systemen te verlagen. De samenwerking richt zich op capaciteit in de VS, dichter bij OpenAI’s afnemers.
AI-infrastructuur is de basis waarop algoritmen draaien en leren. Het gaat om datacenters, gespecialiseerde chips en snelle netwerken. Ook koeling, energievoorziening en beveiliging horen daarbij. Zonder deze laag kunnen generatieve modellen niet trainen of betrouwbaar draaien.
AI-infrastructuur omvat datacenters, gespecialiseerde chips (zoals GPU’s), koeling en snelle netwerken die nodig zijn om grote modellen te trainen en te gebruiken.
Details over investeringen, locaties en planning zijn op het moment van schrijven niet gedeeld. Dat is wel bepalend voor de snelheid van uitvoering. Vergunningen, netaansluitingen en bouwtijden zijn in de VS vaak knelpunten. Foxconn zal die hobbels moeten wegnemen om de belofte waar te maken.
OpenAI zoekt meer rekenkracht
OpenAI, maker van ChatGPT en het model GPT-4o, heeft steeds meer rekenkracht nodig. Het trainen van zulke datamodellen vraagt om duizenden accelerators, stabiele stroom en snelle verbindingen. Meer eigen grip op hardware en levering verlaagt risico’s. Het kan ook de kosten per berekening drukken.
De vraag naar AI-servers is de afgelopen jaren hard gestegen. Schaarste aan chips en onderdelen remt projecten en productlanceringen. Met een vaste partner kan OpenAI beter plannen en prioriteren. Dat is belangrijk voor de continuïteit van diensten voor bedrijven en overheden.
Naast trainen speelt ook het draaien van modellen in productie een rol. Gebruikers verwachten snelle en betrouwbare antwoorden. Dat vereist infrastructuur dicht bij de gebruiker of bij de data. De samenwerking kan zo ook de prestaties van toepassingen in de praktijk verbeteren.
Impact op chipketen VS
De samenwerking past in het Amerikaanse streven om kritieke technologie in eigen land te versterken. Het sluit aan bij investeringen die worden gestimuleerd door de CHIPS and Science Act. Meer assemblage, testen en verpakking van AI-servers in de VS vermindert afhankelijkheden. Dat kan de leveringszekerheid voor Amerikaanse klanten verhogen.
De markt voor AI-accelerators wordt gedomineerd door leveranciers zoals Nvidia, AMD en Intel. Een grotere en stabielere vraag vanuit OpenAI kan de keten sturen, van printplaten tot voedingen. Tegelijk blijven onderdelen en materialen wereldwijd verspreid. Dat vraagt om robuuste logistiek en voorraadbeheer.
Geopolitieke risico’s spelen ook mee, zoals exportregels voor geavanceerde chips. Door productie dichter bij de eindklant te organiseren, beperken bedrijven schokken in de keten. Ook onderhoud en service worden zo eenvoudiger. Dat is cruciaal voor diensten die 24/7 beschikbaar moeten zijn.
Europese regels en databeheer
Diensten van OpenAI die in de EU worden gebruikt, vallen onder de AI-verordening (AI Act). Generatieve modellen krijgen daar extra transparantie- en veiligheidsverplichtingen. Denk aan documentatie over risico’s, herkomst van data en robuustheidstesten. De locatie van de hardware verandert die plichten niet.
Daarnaast geldt de AVG voor alle verwerkingen van persoonsgegevens. Dat betekent dataminimalisatie, versleuteling en duidelijke doelen voor gebruik. Voor het trainen van modellen moeten juridische grondslagen en bronbeschrijvingen op orde zijn. Dat is relevant voor organisaties die eigen data met OpenAI-diensten willen combineren.
Voor Europese overheden en onderwijsinstellingen zijn inkoop en governance cruciaal. Zij moeten nagaan in welke risicoklasse een systeem valt en passende waarborgen eisen. Dat kan dataresidentie, auditmogelijkheden en incidentrespons omvatten. De samenwerking in de VS maakt deze due diligence niet minder belangrijk.
Kansen en risico’s voor EU
De vraag naar AI-hardware kan kansen bieden voor Europese toeleveranciers. Bedrijven als ASML en NXP zitten in sleutelstukken van de keten. Meer productie van AI-servers vergroot de vraag naar lithografie, chips en componenten. Tegelijkertijd blijven capaciteit en levertijden krap.
Uitbreiding van datacenters heeft ook een voetafdruk. Het vraagt veel stroom, koeling en soms water. In Nederland spelen netcongestie en strengere regels voor hyperscale-locaties al langer. Beleidskeuzes bepalen of groei van AI-infrastructuur duurzaam kan gebeuren.
Europa werkt aan eigen digitale soevereiniteit, met projecten rond micro-elektronica en cloud. Samenwerkingen over de Atlantische Oceaan kunnen waardevol zijn, mits aan Europese normen wordt voldaan. Meer concurrerende infrastructuur kan innovatie versnellen. Maar transparantie, veiligheid en privacy blijven de randvoorwaarden.
