Organisaties omarmen AI in hoog tempo, vrijwel allemaal via de grote technologiebedrijven buiten Europa. Daarmee groeit onze afhankelijkheid van deze partijen, juist nu geopolitieke spanningen oplopen. Het is zaak om ons niet volledig uit te leveren aan de wereldwijde big tech-firma’s, maar ook te kijken naar eigen, controleerbare, uitlegbare en betrouwbare alternatieven. Zo betogen PwC-experts Ragnar van der Valk, Gerwin Naber en Mona de Boer.
Wat zou er mis kunnen gaan? De doemscenario’s zijn legio. Een patiënt arriveert op de spoedeisende hulp met ernstige symptomen. Ebola? Koortsachtig zoeken de artsen online naar uitsluitsel, maar vergeefs: de Amerikaanse provider staat offline wegens sancties. Elders spot een aanvalsdrone van Defensie ’s nachts een colonne met zwaar materieel. Vijand of niet? De cloudverbinding hapert. Missie afbreken? Of doorgaan? En op de beurs vallen plots alle transacties stil: ergens in New York draaide iemand een update, waardoor beleggers wereldwijd miljarden verspeelden.
Sciencefiction? Allerminst. Zulke scenario’s kunnen morgen realiteit zijn. Zeker als vitale processen draaien op technologie buiten je eigen invloedssfeer. Want ja, de wereld digitaliseert in hoog tempo, maar intussen staan de geopolitieke verhoudingen stevig onder druk. Terwijl kunstmatige intelligentie (AI) doordringt tot in de kern van onze economie en onze maatschappij, brengen politieke aardverschuivingen, conflicten en verkiezingsretoriek grote onzekerheid. Wat betekent het voor organisatie en overheden als de technologie waarop ze bouwen, afkomstig is uit landen met andere wetten, andere belangen en een groeiend risico op frictie?
Europa staat op een kruispunt. De vraag is niet meer óf we AI gebruiken, maar hóe – en vooral: onder welke voorwaarden. Wie die vraag niet expliciet stelt, loopt het risico de regie te verliezen. Over data, over technologie, en uiteindelijk ook over vertrouwen. Op het wereldwijde strijdtoneel is technologie geen neutraal hulpmiddel meer, maar een krachtig wapen. De Amerikaanse Cloud Act maakt het mogelijk dat Amerikaanse overheden toegang krijgen tot data van Amerikaanse bedrijven, ook als die fysiek in Europa zijn opgeslagen. In China wordt technologie in toenemende mate gestuurd door de overheid. En met oplopende spanningen en onzekerheid op het wereldwijde toneel, kunnen toegang tot technologie of updates zomaar politieke instrumenten worden.
Wie zijn digitale infrastructuur bouwt op buitenlandse platforms, accepteert impliciet ook de invloed van buitenlandse wetgeving en politiek. Het gaat dus niet alleen om waar je data fysiek opslaat, maar vooral om wie het systeem beheert, wie toegang heeft en onder welk juridisch regime dat gebeurt.
Dat zet ook technologische afhankelijkheid in een heel nieuw daglicht. Veel Nederlandse organisaties gebruiken AI-oplossingen die draaien op modellen en infrastructuur van Amerikaanse aanbieders. Deze modellen zijn vaak gesloten, waardoor de werking niet inzichtelijk is. Updates en beheerrechten liggen bij de leverancier. Veel bedrijven gebruiken dus modellen waarvan ze niet weten hoe ze werken, wie ze beheert, waar de onderliggende data vandaan komen en met welke data deze modellen gevoed zijn. Dat is niet alleen een cybersecurity- of privacyvraagstuk. Het gaat ook om je bedrijfszekerheid.
Controle is essentieel voor organisaties, maar ook voor het publieke vertrouwen. Consumenten willen van AI niet alleen snelle hulp, maar ook een heldere uitleg: Waarom krijg ik dit aanbod? Waarom wordt mijn lening geweigerd? Waarom word ik als sollicitant afgewezen? Een heldere uitleg is de basis van vertrouwen. Als je je keuzes niet kunt uitleggen, verlies je het vertrouwen – van je klanten, van toezichthouders, van medewerkers en van de samenleving.
Transparantie is daarmee niet slechts optioneel – een ‘nice to have’ –, maar een absolute voorwaarde voor maatschappelijk en juridisch draagvlak. Zeker in sectoren als zorg, overheid of financiële dienstverlening moet je kunnen laten zien dat je systemen rechtvaardig, begrijpelijk en toetsbaar zijn. Je hoeft niet alles zelf te dóen, maar je moet wel zelf de regie hebben. Soevereiniteit betekent niet dat je alles zelf moet bouwen, maar dat jij bepaalt wat je uitbesteedt – en onder welke voorwaarden.
Gelukkig ontstaan er steeds meer Europese alternatieven. Open source AI-modellen zoals LLaMA, Mistral of Aleph Alpha maken het mogelijk om zelf modellen te draaien, aan te passen en te controleren. Europese cloud-initiatieven zoals GAIA-X of Stackit bouwen aan infrastructuur die past bij Europese normen en waarden. Maar de overstap vergt lef en richting. Ons advies is te segmenteren. Je hoeft niet morgen alles te migreren. Wat is kritisch, wat kan blijven waar het is? En maak daar bewuste keuzes in. Dit is wel hét moment om strategische grip te herwinnen. Digitalisering is fundamenteel geworden. Dan moet je ook fundamenteel durven kiezen voor transparantie, uitlegbaarheid en onafhankelijkheid.
Daarbij komt dat wet- en regelgeving snel verandert. De Europese AI Act, NIS2 en de Data Act stellen steeds strengere eisen aan de manier waarop organisaties omgaan met AI, data en digitale infrastructuur. Die wettelijke prikkels zijn nodig, maar wie daarop wacht is te laat. Verantwoorde AI begint bij inzicht in je eigen keuzes. Hoe meer grip je hebt op data, infrastructuur en modellen, hoe beter je risico’s kunt beheersen – én kansen kunt benutten. Wat klanten, burgers en toezichthouders willen, is eenvoudig. Ze willen weten: is dit eerlijk, uitlegbaar en veilig? Organisaties die daar vandaag werk van maken, zijn morgen de winnaars.
In een wereld waarin stabiliteit geen vanzelfsprekendheid meer is, is digitale controle geen luxe, maar noodzaak. AI biedt enorme kansen, maar ook scherpe risico’s – zeker als de technologie die je gebruikt niet van jezelf is, en de spelregels elders worden geschreven. Digitale soevereiniteit is geen pleidooi voor isolatie, maar een manier om bewust te kiezen: wat doen we in eigen beheer, wat besteden we uit – en onder welke voorwaarden? Het is een nieuwe vorm van strategisch denken, waarin betrouwbaarheid, transparantie en uitlegbaarheid centraal staan. Wie vandaag investeert in uitlegbare, betrouwbare en soevereine AI, bouwt aan vertrouwen – en aan de toekomst.
Partner Technology, PwC Netherlands
Ragnar leidt de technologie-praktijk bij PwC Nederland. Hij is gespecialiseerd in digitale transformaties. Met een achtergrond in organisatieverandering en strategisch management, gecombineerd met jarenlange ervaring in technische (IT-)omgevingen, slaat hij de brug tussen strategie en duurzame, slimme oplossingen.Partner, PwC Netherlands
Gerwin is partner bij PwC Nederland en gespecialiseerd in cyber, forensisch onderzoek en kunstmatige intelligentie (AI). Hij helpt organisaties bij het navigeren door de complexiteit van AI en cybersecurity, vooral om crisissituaties te voorkomen of erop te reageren.Partner, Data & Artificial Intelligence, PwC Netherlands
Mona is partner bij PwC Nederland en gespecialiseerd in het gebruik van data en kunstmatige intelligentie. Ze adviseert organisaties vooral over het verantwoord gebruik van AI, zogeheten responsible AI, en over de regel- en wetgeving rondom AI.