Zo haal jij voordeel uit de nieuwe AI-wet van Europa
Kunstmatige intelligentie verandert de wereld. Jij kunt daarin het verschil maken. Of je nu werkt in de publieke sector of het bedrijfsleven, AI is een sleuteltechnologie voor digitale vernieuwing. Tegen 2030 is het niet meer weg te denken uit vrijwel alle processen en producten in de Europese productieketen.
AI biedt economische voordelen. Toch is vertrouwen net zo belangrijk. Je wilt zeker weten dat AI goed presteert, veilig is, eerlijk werkt en te vertrouwen is. Dat bepaalt of jij AI gaat gebruiken. Ook klanten en besluitvormers hebben die zekerheid nodig. Die komt er alleen met duidelijke regels, goede controle – op basis van best practises – en via algemeen geaccepteerde normen.
Daarom heeft de Europese Unie nieuwe regels gemaakt voor AI: de EU AI Act. Deze wet geldt voor alle organisaties die AI maken of gebruiken, en zowel voor publieke als private organisaties. Het doel is duidelijk: AI moet betrouwbaar en van hoge kwaliteit zijn. Tegelijk moeten de rechten van alle EU-burgers goed beschermd blijven.
Playback of this video is not currently available
De EU AI Act benadrukt het belang van holistisch AI-bestuur, dat verzekert dat de ontwikkeling en het gebruik van AI-systemen gedurende hun hele levenscyclus transparant en van hoge kwaliteit zijn. Organisaties moeten proactief aan de wettelijke verplichtingen van de EU AI Act voldoen en de potentiële risico's beperken. Het niet naleven kan leiden tot boetes onder de EU AI Act, evenals straffen onder de General Data Protection Regulation (GDPR) en sectorspecifieke regelgeving. Bovendien kunnen organisaties aansprakelijkheidsclaims krijgen als ze een defect AI-systeem gebruiken.
De EU AI Act rangschikt AI-systemen in vier categorieën op basis van hun potentiële risico's: onaanvaardbaar risico, hoog risico, beperkt risico en minimaal risico. Elke categorie heeft verschillende vereisten en verplichtingen die aan AI-systemen worden opgelegd.
De EU AI Act is op 1 augustus 2024 in werking opgetreden. De eerste reeks vereisten voor AI-systemen met een onaanvaardbaar risico is op 2 februari 2025 van kracht geworden, waarbij de vereisten voor hoog- en laaggecategoriseerde risiconiveaus geleidelijk worden geïmplementeerd tot 2027. Bovendien vereist de EU AI Act vanaf 2 februari 2025 AI geletterdheid, wat inhoudt dat iedereen die met AI-systemen werkt voldoende kennis, begrip en vaardigheden heeft met betrekking tot AI.
Het implementeren van de EU AI Act brengt voor veel organisaties uitdagingen met zich mee, maar biedt ook mogelijkheden om de kwaliteit van toegepaste AI te verbeteren. Om meer te weten te komen over de praktische implementatie van de complexe vereisten van de EU AI Act, kun je de onderstaande whitepaper lezen.
De EU AI Act zal van invloed zijn op organisaties die actief zijn binnen de Europese Unie. Ze zullen hun AI-systemen moeten aanpassen om aan de nieuwe regelgeving te voldoen. Dit kan gevolgen hebben voor de bedrijfsvoering, markttoegang, transparantie en concurrentiepositie. Maar de wet biedt ook kansen voor bijvoorbeeld innovatie, consumentenvertrouwen en afstemming op de zich ontwikkelende wereldwijde AI-normen.
Om aan de eisen van de EU AI Act te voldoen, moeten organisaties de volgende stappen volgen:
Bepaal de classificatie van uw AI-systeem: beoordeel het risiconiveau van het AI-systeem volgens het classificatieraamwerk van de verordening. Bepaal of het in de categorie onaanvaardbaar risico, hoog risico, beperkt risico of minimaal risico valt.
Voer een risicobeoordeling uit: als jouw AI-systeem is geclassificeerd als hoog risico, voer dan een grondige risicobeoordeling uit. Identificeer potentiële risico's van jouw AI-systeem, zoals veiligheidsproblemen, privacyproblemen of vooroordelen.
Zorg ervoor dat je voldoet aan de technische vereisten: bekijk de technische vereisten die in de EU AI Act zijn gespecificeerd voor de risicocategorie van het AI-systeem. Dit kunnen kenmerken zijn als robuustheid, nauwkeurigheid en cyberbeveiligingsmaatregelen.
Documentatie voorbereiden: bereid gedetailleerde documentatie voor over de aanwezige AI-systemen. Deze moet informatie bevatten over de mogelijkheden, beperkingen en eventuele vooroordelen.
Menselijk toezicht implementeren: als jouw AI-systeem is geclassificeerd als hoog risico, stel dan mechanismen in voor menselijk toezicht.
Conformiteitsbeoordelingen uitvoeren: voer voor AI-systemen met een hoog risico conformiteitsbeoordelingen uit om aan te tonen dat ze voldoen aan de EU AI Act.
Een team van multidisciplinaire experts kan je ondersteunen bij jouw processen om te voldoen aan de EU AI Act:
PwC biedt hulp bij het verkennen van de EU AI Act. Wij beschikken over deskundigheid op het gebied van regelgeving en kunnen helpen bij de interpretatie van de voorschriften, het bepalen van de classificatie van jouw AI-systeem en het identificeren van specifieke vereisten.
PwC helpt bij het uitvoeren van risicobeoordelingen, het ontwikkelen van strategieën om risico's te beperken en het waarborgen van technische naleving van de vereisten van de EU AI Act.
PwC ondersteunt bij het uitvoeren van conformiteitsbeoordelingen voor AI-systemen met een hoog risico en helpt bij de voorbereiding van het beoordelingsproces.
PwC helpt bij het herzien en bijwerken van interne processen, beleidslijnen en procedures om deze in overeenstemming te brengen met de vereisten van de EU AI Act. Denk daarbij ook aan gegevensbeheer en ethische overwegingen.
PwC biedt opleidings- en trainingsprogramma's om de kennis en vaardigheden van uw team op het gebied van AI-regelgeving en -naleving te vergroten.
PwC biedt doorlopende ondersteuning om de prestaties van AI-systemen te bewaken, nieuwe risico's aan te pakken en aanpassingen te maken na eventuele updates of wijzigingen in de EU AI Act.