Succesvolle datafuncties binnen organisaties denken vanuit hun externe impact. Dat is niet alleen de juiste mindset voor innovatie, maar ook de rode draad in nieuwe AI-regelgeving en (aanstaande) praktijkstandaarden voor de werkwijze van de datafunctie. Hoe kunnen datafuncties dit momentum optimaal benutten?
De maatschappelijke uitdagingen die de toepassing van AI in de afgelopen jaren stelde met betrekking tot de fundamentele rechten van natuurlijke personen, zijn recentelijk wereldwijd door wetgevers beantwoord met (hernieuwde) voorstellen voor AI-regelgeving. Zo zag onder meer het voorstel voor de ‘Artificial Intelligence Act’ van de Europese Commissie (EU AIA) in april 2021 het daglicht, herintroduceerde de VS in februari 2022 zijn ‘Algorithmic Accountability Act’ uit 2019, en verscheen in maart 2022 regelgeving in China die zich toespitst op deze socio-technische systemen. Op hoofdlijnen hebben de voorstellen tot doel om ‘veiligheidseisen’ aan de totstandkoming en het gebruik van AI-systemen te stellen waarmee fundamentele rechten en waarden in de samenleving worden beschermd, zonder de innovatieve ontwikkelmogelijkheden voor de technologie te veel in te perken. De belangrijkste uitdaging voor wetgevers op dit gebied is om de cultureel sterk verschillende werelden van innovatie (‘fail fast, fail often’; ‘ship it and fix it later’) en van regelgeving (‘slow down and reflect’) met elkaar in harmonie te brengen. Over die balans is het laatste nog niet gezegd, getuige onder andere de stortvloed aan internationale reacties op de wetsvoorstellen. Desondanks kunnen organisaties die nu vanuit kansen in plaats van compliance naar de conceptregelgeving kijken, bij de (door)ontwikkeling van hun datafunctie hun voordeel doen met de door wetgevers geformuleerde veiligheidseisen. Dit vereist wel de juiste voedingsbodem binnen de organisatie en in het specifiek de datafunctie. Dit artikel gaat hier verder op in aan de hand van de EU AIA.
Een van de belangrijkste bijdragen van de EU AIA is de introductie van een risicoclassificatie voor AI-systemen, dat wil zeggen: het wetsvoorstel classificeert en reguleert AI-systemen op basis van hun risico. Daarbij wordt onderscheid gemaakt in de volgende risicocategorieën:
Figuur 1: De EU AIA’s risicoclassificatie voor AI-systemen
Op aanbieders van systemen met een hoog risico (categorie 2) rust de verplichting om ervoor te zorgen dat de betreffende systemen aan de veiligheidseisen van de EU AIA voldoen. Deze eisen hebben betrekking op de zeven in figuur 2 genoemde domeinen.
Hoewel de tekst van de verordening nog niet op alle punten voldoende duidelijk en uitgewerkt is, komt het er grofweg op neer dat er eisen worden gesteld aan:
Deze eisen staan in dienst van het voorkomen van ongewenste individuele en maatschappelijke effecten van de output van AI-systemen.
Aanbieders van categorie 2 AI-systemen moeten op twee momenten – al dan niet met de betrokkenheid van een onafhankelijke derde – de naleving van deze vereisten aantonen, namelijk:
Deze verplichting tot (zelf)evaluatie van AI-systemen met een hoog risico heeft begrijpelijkerwijs geen enkele waarde als er geen passende norm is die weerspiegelt hoe ‘goed’ eruit zou moeten zien. De EU AIA geeft daarvoor op dit moment geen concrete (dat wil zeggen voor de dagelijkse praktijk werkbare) handvaten. In het kielzog van de voorstellen voor AI-regelgeving is daarom ook een internationale standaardisatiegolf op gang gekomen die dit gat moet opvullen. Tabel 1 geeft een aantal van de belangrijke internationale standaardisatie-initiatieven van dit moment weer.
Figuur 2: De EU AIA’s domeinen van veiligheidseisen voor AI
Uitgevende instantie |
Standaard(en)/raamwerk |
Doel standaard(en)/raamwerk |
---|---|---|
International Organization for Standardization (ISO) / International Electrotechnical Commission (IEC) |
Reeks standaarden (in ontwikkeling):
|
Standaardisatie gericht op het gehele AI-ecosysteem: fundamentele AI-normen, Big Data, AI-betrouwbaarheid, use cases, toepassingen, governance-implicaties van AI, computationele benaderingen van AI, testen, ethische en maatschappelijke zorgen |
Institute of Electrical and Electronics Engineers Standards Association (IEEE SA) |
Reeks standaarden (in ontwikkeling) |
Standaardisatie gericht op het mogelijk maken van de governance en de praktische toepassing van AI met betrekking tot computationele benaderingen van machine learning, algoritmen en gerelateerd datagebruik |
European Committee for Standardization (CEN) / European Committee for Electrotechnical Standardization (CENELEC) |
Reeks standaardisatieproducten op het gebied van AI en het daarmee verband houdende gebruik van data om in te spelen op de Europese markt en maatschappelijke behoeften |
Standaardisatie gericht op de ontwikkeling van betrouwbare AI-systemen die de in Europa erkende fundamentele waarden en mensenrechten respecteren |
European Telecommunications Standards Institute (ETSI) |
Reeks standaarden (in ontwikkeling) |
Standaardisatie gericht op het behoud en de verbetering van de beveiliging van nieuwe AI-technologieën |
US National Institute of Standards and Technology (NIST) |
AI Risk Management Framework (concept maart 2022) |
Verstrekken van richtlijnen ten aanzien van resultaten en activiteiten om het AI-risicomanagementproces uit te voeren, om de voordelen van AI te maximaliseren en de risico’s ervan te minimaliseren. |
Door de toenemende aandacht voor het belang en de businesskansen van data, hebben de meeste organisaties inmiddels een datafunctie. In de praktijk is er nog wel een enorme diversiteit waar te nemen in hoe deze functie zich manifesteert, bijvoorbeeld formeel vs informeel, centraal vs decentraal vs hybride, in ontwikkeling vs nagenoeg volwassen, gericht op research & development vs gericht op automatisering en operationele efficiëntie. Na de opstartfase komt de vraag hoe de functie verder vorm moet krijgen en wat de volgende stap is in het volwassenheidsniveau (vaak van ‘start-up’ naar ‘scale-up’). De AI-regelgeving, en met name de onderliggende, internationale standaardisatiestroom die daarmee op gang is gekomen, geeft organisaties die de ambitie hebben om hun datafunctie verder te professionaliseren een steun in de rug, vooral als het aankomt op de verdere inrichting van de governance van de datafunctie en de operationele processen die onder de functie vallen. De detailvoorschriften uit de verschillende standaarden maken het voor een start-up datafunctie verleidelijk om rechtstreeks vanuit experimentele werkwijzen aan de slag te gaan met de inrichting van volwassen(er) operationele processen. De praktijk leert echter dat dat proces van korte duur is als daar niet een aantal belangrijke stappen aan vooraf is gegaan om de juiste voedingsbodem te creëren. Het gaat daarbij om het volgende:
De ervaring leert dat dit benodigde inzicht over het algemeen niet voldoende blijkt uit business- en datastrategieën. Hier ligt dus een belangrijk actiepunt voor de verdere uitwerking van nieuwe en bestaande strategieën.
Met het steeds verder doordringen van geavanceerde datatechnologie binnen de businessmodellen en dagelijkse activiteiten van organisaties, zien ook steeds meer standaarden het daglicht die organisaties een referentiepunt geven voor een ‘goede’ datafunctie. Hoewel de ontwikkeling van deze standaarden vooral wordt aangejaagd door regelgeving, kunnen organisaties die voorbij compliance kijken, bij het verder professionaliseren van hun datafunctie hun voordeel doen met deze standaarden. Om die voordelen optimaal te benutten is het van belang dat de data-activiteiten van de organisatie strategisch ingebed zijn.
Mona de Boer
Partner, Data & Artificial Intelligence, PwC Netherlands
Tel: +31 (0)61 088 18 59