De maatschappelijke bezorgdheid neemt toe. De Tweede Kamer onderzoekt momenteel juridische maatregelen tegen misbruik van deepfakes. Geïnspireerd door Denemarken hebben verschillende politieke partijen voorgesteld om individuen auteursrecht te geven op hun eigen uiterlijk en stem, waardoor preventie van fraude en identiteitsmisbruik kan worden vergemakkelijkt.
Volgens onze Global Economic Crime Survey 2024 is cybercriminaliteit—waaronder imitatie via deepfakes—nu de meest gemelde vorm van fraude in Europa. Uit de Global Digital Trust Insights 2025 blijkt bovendien dat 67 procent van de Europese security experts aangeeft dat generatieve AI en cloudtechnologieën het digitale aanvalsoppervlak hebben vergroot.
Voorbeelden van imitatiefraude
Imitatiefraude volgt vaak via een gelaagde aanpak, waarbij verschillende technieken worden gecombineerd om medewerkers te misleiden en beveiligingsmaatregelen te omzeilen. Dit zijn een aantal veelvoorkomende voorbeelden op een rij:
- Phishing: e-mails die lijken te komen van vertrouwde collega’s of organisaties, en ontvangers aanzetten tot het delen van vertrouwelijke informatie.
- Business Email Compromise (BEC): gerichte e-mailaanvallen waarbij leidinggevenden of medewerkers worden geïmiteerd om interne stakeholders te misleiden.
- Deepfakes: door AI gegenereerde audio of video die overtuigend de stem of het uiterlijk van een leidinggevende nabootst, vaak gebruikt om medewerkers te overtuigen—vooral als ze de persoon niet goed kennen.
Deze methoden worden vaak gecombineerd. Een fraudeur kan bijvoorbeeld eerst contact opnemen via WhatsApp of een phishingmail, daarna volgt een deepfake videogesprek. Deze gelaagde strategie creëert een zeer overtuigend scenario, waardoor het steeds moeilijker wordt om echt van nep te onderscheiden.
Wat te doen bij een incident
Tijd is cruciaal bij imitatiefraude. Een snelle en gestructureerde reactie kan de impact aanzienlijk beperken en het herstel ondersteunen. Organisaties moeten daarom:
- Direct reageren: isoleer het incident en voorkom verdere schade.
- Onderzoek en analyse: beoordeel de impact en start een forensisch onderzoek.
- Herstel en juridische stappen: volg het geldspoor en onderzoek juridische en verzekeringsopties.
- Herstelmaatregelen: versterk processen, herstel systemen en train medewerkers.
Weerbaarheid opbouwen vóór een aanval
Echte cyberweerbaarheid begint ruim vóór een incident. Door proactieve stappen te nemen, kunnen organisaties risico’s verkleinen, verdediging versterken en zich beter voorbereiden op mogelijke fraude:
- Risicobeoordeling: identificeer kwetsbaarheden en sectorspecifieke dreigingen.
- Cyberparaatheid: stel duidelijke incidentprocedures op en voer crisissimulaties uit.
- Bewustwordingstraining: informeer medewerkers over deepfakes en verdachte signalen.
PwC’s visie: Navigeren in de toekomst van AI en deepfakes
Hoewel deepfakes momenteel serieuze risico’s vormen, gelooft PwC dat dezelfde technologie ook deel kan uitmaken van de oplossing. Onze visie op AI is gebaseerd op vier kernprincipes:
- Van risico naar strategische waarde: AI is niet alleen een bedreiging—het is een motor voor innovatie. Organisaties die AI verantwoord inzetten, kunnen efficiëntie verhogen, besluitvorming verbeteren en klantbeleving versterken.
- Detectie via AI: nieuwe technologieën worden ontwikkeld om deepfakes in realtime te detecteren. PwC helpt bij het evalueren en implementeren van AI-tools die authenticiteit verifiëren via biometrie, metadata en gedragsanalyse.
- Governance en ethiek: naarmate de impact van AI groeit, neemt ook de behoefte aan regelgeving toe. We verwachten meer juridische kaders rond digitale identiteit en AI-gebruik. Organisaties moeten zich voorbereiden op transparantie, verantwoording en ethische inzet.
- Mensen blijven centraal staan: technologie alleen is niet genoeg. Cyberweerbaarheid vereist een sterke focus op bewustwording, gedrag en cultuur van medewerkers.
Meer weten?
Neem contact met ons op om te ontdekken hoe PwC u kan helpen digitale fraude te voorkomen en erop te reageren—en uw organisatie voor te bereiden op de toekomst van AI.