Heldere strategie en governancestructuur nodig voor verantwoorde integratie

Hoe je verrassingen voorkomt bij het opschalen van AI

Overzicht pensioenactualiteiten 2025-Q2
  • Publicatie
  • 19 aug 2025

Veel organisaties experimenteren met kunstmatige intelligentie (AI). Ze testen toepassingen, bouwen prototypes en zetten tools als Copilot voorzichtig breder in. Maar hoe ga je een stap verder? Hoe ga je van losse pilots naar integratie in processen, systemen en besluitvorming in alle lagen van de organisatie? En hoe houd je controle? 

‘AI op grote schaal uitrollen vraagt om meer dan technische implementatie’, zegt PwC-expert Flora Slager. ‘Je moet helder hebben welke risico’s ermee gepaard gaan – van datatoegang tot bias – en hoe je die risico’s beheersbaar maakt.’ 

Samen met Martin Holm, expert data & AI bij PwC, werkt Slager aan de gecontroleerde invoering van AI binnen grote organisaties. Beiden zijn nauw betrokken bij implementaties in onder meer de verzekerings- en pensioensector. Hun missie: AI ‘demystificeren’ en laten zien hoe organisaties het kunnen inzetten – zonder de grip te verliezen.

Toen in de jaren negentig het internet opkwam, riep dat bij bedrijven vooral vragen op: moeten we daar iets mee? Is het veilig? Wat als klanten ineens zelf reizen gingen boeken of handelen op de beurs? ‘AI veroorzaakt vergelijkbare reacties’, zegt Slager. ‘Weerstand, koudwatervrees en de neiging om af te wachten. Maar AI is er al. Het gaat er nu om hoe je er verantwoord mee omgaat.’

Hoe breng je AI van pilot naar praktijk?

Veel financiële dienstverleners en pensioenuitvoerders zetten AI inmiddels in. Denk aan interne chatbots, automatische rapportages of tools als Copilot. Maar de stap naar bredere toepassing blijkt lastig. Holm: ‘Wat je nu veel ziet zijn losse haalbaarheidsonderzoeken van een concept. Die leveren soms waarde op, maar blijven vaak hangen in een experimenteel stadium. De vraag is: hoe krijg je het structureel ingebed?’

Dat vraagt volgens de PwC’ers om een andere benadering. Geen losstaande tools, maar een heldere strategie en governancestructuur. ‘We hebben bij PwC een raamwerk ontwikkeld dat organisaties helpt om AI op schaal, veilig en verantwoord in te voeren’, aldus Slager.

Waarom AI nu wél nodig is

In sectoren zoals pensioenen en finance is de druk op kosten en efficiëntie groot. AI kan daarbij helpen. Holm: ‘Neem de overgang naar het nieuwe pensioenstelsel – daar komt veel documentatie, controle en afstemming bij kijken. AI kan processen versnellen én de foutmarge verkleinen’.

Een voorbeeld is de ‘Policy Gap Analyzer’, een tool die beleidsdocumenten vergelijkt met wet- en regelgeving en automatisch verschillen signaleert. Of de interne chatbot die op basis van alle projectdocumentatie vragen beantwoordt over bijvoorbeeld de Wet toekomst pensioenen. ‘Dit zijn toepassingen die tijd besparen en kwaliteit verhogen’, aldus Slager. ‘Maar dan moet je het wel goed organiseren.’

Risicobeheersing als randvoorwaarde voor groei

De sleutel tot grootschalige inzet van AI ligt in risicobeheersing en datagovernance. PwC ontwikkelde hiervoor onder meer een raamwerk voor het in kaart brengen van AI-risico's en het beheersen daarvan, en een assessment om de impact van AI te beoordelen. Daarmee kunnen organisaties per gebruikersscenario beoordelen wat de specifieke risico’s zijn – denk aan bias, transparantie, autonomie en datatoegang.

Data: de onzichtbare bottleneck

Wat AI ook blootlegt, is dat veel organisaties hun databeheer nog niet op orde hebben. ‘Toegang tot verouderde documenten, slecht gelabelde bestanden of gebrekkige controleprocessen – dat komt allemaal naar boven als je AI gaat gebruiken’, zegt Holm. ‘Dan blijkt bijvoorbeeld dat er geen vierogenprincipe is vastgelegd in processen waar dat eigenlijk wel zou moeten.’

AI maakt zichtbaar wat al langer speelt en legt de lat hoger. De oplossing? Begin bij je data. Zorg voor heldere structuren, toegangsniveaus en labeling. ‘Pas dan kun je AI op een veilige manier inzetten’, stelt Slager.

Werknemers gebruiken AI vaak al – dus geef richting

Een ander punt: medewerkers gebruiken AI vaak al, met of zonder toestemming. Hoe kijkt Holm aan tegen werknemers die op privéapparaten tools als ChatGPT inzetten om werk te versnellen?  ‘Je houdt dat niet tegen. Je kunt als organisatie wel wachten met beleid, maar feitelijk ben je al gestart.’

Daarom pleit PwC voor een pragmatische aanpak. ‘Zorg voor een veilig alternatief, - bijvoorbeeld Copilot binnen een bedijfsomgeving - en geef duidelijke richtlijnen. En werk aan opleiden: niet alleen op risicogebied, maar ook als het gaat over effectief gebruik’, aldus Slager.

Bij onder meer het ministerie van Defensie helpt PwC bij het verantwoord invoeren van AI. Slager: ‘Wat je ziet is dat de aanpak werkt als je verschillende competenties samenbrengt: van IT en de afdeling risicomanagement tot de werknemers zelf. Iedereen heeft een rol’.

Ook binnen PwC wordt AI stap voor stap geïmplementeerd. ‘We zijn zelf “client zero”’, zegt Holm. ‘Dat maakt dat we weten waar de valkuilen zitten, maar ook wat werkt.’

Aanbeveling: begin klein met AI, maar begin wel

De belangrijkste les? Begin. Slager: ‘AI roept veel vragen op en ja, het is complex. Maar het alternatief – niets doen – is geen optie. Juist nu is het moment om structuur aan te brengen en te investeren in een verantwoorde basis’.

Holm vult aan: ‘We hoeven het wiel niet opnieuw uit te vinden. Veel principes rond risicobeheersing bestaan al. AI vraagt om aanpassing, niet om paniek. Zoals bij het internet destijds: weerstand is logisch, maar de toekomst wacht niet’.

Wil je meer informatie over het veilig en verantwoord integreren van AI?

Contact us

Martin Holm

Martin Holm

Director FS Data & Cloud, PwC Netherlands

Tel: +31 (0)62 390 47 94

Volg ons