Hoe responsible AI voor verzekeraars bijdraagt aan succes

13/03/20

Vertrouwen bouwen door verantwoord omgaan met data

Een verantwoord gebruik van kunstmatige intelligentie (AI) is essentieel voor het creëren van toekomstbestendige verzekeraars. Verzekeraars zijn zich hiervan volop bewust en proberen in toenemende mate AI toe te passen in bedrijfsprocessen. Maar waar ligt de grens? Tot welke hoogte is het gebruik van data nog ethisch verantwoord en eerlijk? Eugénie Krijnsen, industrieleider voor de financiële sector bij PwC, gaat in gesprek met Ruud Wetzels, expert data-analyse bij PwC.

'Als verzekeraars AI willen toepassen op een manier die het vertrouwen van klanten niet aantast, zullen ze heel grondig moeten overdenken wat voor hen verantwoord is en wat niet', trapt Krijnsen af.

Niet meegaan met AI is geen optie

‘Het toepassen van AI is in elk geval een absolute noodzaak voor verzekeraars', aldus Wetzels. 'AI geeft veel mogelijkheden om het gemak voor klanten te vergroten, de kosten te verlagen en het vertrouwen te ondersteunen dat nodig is voor verzekeraars. Maar AI is ook complex en het zal voor nieuwe risico's zorgen.’

Steeds meer toepassingen van AI bij verzekeraars

Verzekeraars gebruiken artificial intelligence nu onder meer in callcenters. Met behulp van de technologie wordt het taalgebruik en de emotionele staat van bellende klanten geïnventariseerd om de verdere routing van het gesprek te helpen bepalen. Om een geautomatiseerde claimafhandeling mogelijk te maken speuren algoritmes op de achtergrond naar signalen die wijzen op fraude. AI wordt ook gebruikt voor dynamische premiestelling, het afhandelen van schadeclaims en de ontwikkeling van nieuwe verzekeringsdiensten voor specifieke doelgroepen.

Discussie over responsible AI nog gaande

Volgens Wetzels zal elke verzekeraar voor zichzelf een principiële keuze moeten maken die aansluit bij de strategie en de cultuur, rekening houdend met de keuzes die concurrenten maken. ‘De discussie over wat een verantwoord gebruik van AI is (responsible AI), is nog niet uitgekristalliseerd, en verzekeraars maken daarin verschillende keuzes. Sommige zijn gericht op de korte termijn en gaan zo ver als wetgever en toezichthouder toelaten. Anderen zijn vooral bezig AI voor de lange termijn goed in te richten.’

Relevantie = gemak x lage kosten x vertrouwen

Bij het maken van die keuzes doen verzekeraars er volgens Krijnsen goed aan rekening te houden met de drie factoren die bepalen in welke mate verzekeraars relevant zijn voor belanghebbenden. Die factoren zijn gemak, lage kosten en vertrouwen. 

Tevreden over interactie en communicatie

Krijnsen: ‘Onder gemak verstaan we onder meer de mate waarin klanten tevreden zijn over hun gebruikservaringen met het product- en dienstenaanbod van verzekeraars. En over de snelheid, de stabiliteit en de eenvoud die zij ervaren in de interactie en communicatie met verzekeraars via het kanaal van hun keuze.’

Lage kosten bestaansvoorwaarde voor verzekeraars

Daarnaast is het blijven streven naar lage kosten een bestaansvoorwaarde voor verzekeraars. ‘Het is nodig om producten en diensten te kunnen leveren voor een concurrerende en door klanten als eerlijk ervaren prijs’, aldus Krijnsen. Daar waar automatisering al voor lagere kosten heeft gezorgd door 'handjes' overbodig te maken, belooft AI - als het eenmaal op voldoende schaal is geïmplementeerd - ook 'hersens' overbodig te maken in de dagelijkse processen. Algoritmes zijn nu al beter en sneller in bepaalde besluitvorming dan mensen, en op termijn ook goedkoper.

Vertrouwen fundament voor relevantie verzekeraars

Tenslotte geeft de factor vertrouwen aan in welke mate klanten hun verzekeraar betrouwbaar, voorspelbaar, transparant en integer vinden. ‘Met vertrouwen doelen we ook op de mate waarin verzekeraars een nuttige en gewaardeerde bijdrage leveren aan de samenleving waarvan ze deel uitmaken. Het is het fundament voor de relevantie van verzekeraars. De toepassing van AI brengt onvermijdelijk dilemma's met zich mee die direct raken aan dit vertrouwen, en die enkele van de belangrijkste grondslagen van verzekeren, risicodeling en solidariteit, kunnen aantasten’, zegt Krijnsen.

Verkeerde keuzes kunnen vertrouwen van klant schaden

Een van die dilemma’s bij AI is het gebruik van data. Klanten staan, soms zonder dat ze zich daarvan volledig bewust zijn, veel gevoelige, persoonlijke data af over hun voorkeuren en bijvoorbeeld hun gezondheid of rijgedrag. Op basis van die data en AI zijn verzekeraars in staat gepersonaliseerde producten en diensten te ontwikkelen. Personalisering staat alleen op gespannen voet met solidariteit: in ruil voor het afstaan van data kan premiekorting worden aangeboden, maar krijgen klanten die niet bereid zijn hun data te delen dan een hogere premie?

‘Tot welke hoogte vindt een verzekeraar het toepassen van AI nog ethisch verantwoord en eerlijk? En denken klanten er dan hetzelfde over? Verkeerde keuzes of een ongelukkige communicatie rondom dit soort dilemma's kunnen het vertrouwen in verzekeraars flink beschadigen’, aldus Wetzels.

Een verantwoord gebruik van AI

Om het denken over een verantwoord gebruik van AI te structureren, en om de risico's te beheersen die gepaard gaan met het gebruik van AI, heeft PwC een Responsible AI Toolkit ontwikkeld. Met gebruik van een serie op maat gemaakte tools kunnen bedrijven vijf dimensies van Responsible AI verkennen:

  • Ethiek en regulering: waar trekken verzekeraars voor zichzelf de grens en waar leggen wetgever en toezichthouder die?
  • Bias en eerlijkheid: hoe maak je een zorgvuldige afweging tussen deze complexe, deels sociaal-culturele begrippen die soms op gespannen voet staan met elkaar? Zelfs na het uitsluiten van elke vorm van input bias kunnen algoritmes namelijk nog steeds uitkomsten genereren die als oneerlijk worden ervaren.
  • Mate van interpretering en uitleg: geen enkele klant of toezichthouder accepteert 'computer says no' als verklaring voor een ongunstige beslissing. Verzekeraars moeten kunnen begrijpen, uitleggen en verdedigen waarom hun algoritme tot die beslissing is gekomen.
  • Robuustheid en veiligheid: hoe kun je voorkomen dat kleine inputvariaties en kwaadwillende buitenstaanders invloed hebben op de uitkomsten die AI produceert?
  • Governance: waar ligt binnen een verzekeraar de verantwoordelijkheid voor de content van een algoritme en de beslissingen die het neemt? Bij het datateam, bij de business owner, bij het bestuur?

Zorgen dat AI waarde oplevert

‘Wie verantwoord wil omgaan met AI zal in elk geval op deze vijf aspecten heel goed doordacht moeten hebben welke positie hij kiest en welke manier van werken hij daarbij wil inrichten’, zegt Wetzels. ‘Veel verzekeraars onderzoeken al hoe AI voor hen businesswaarde kan opleveren, maar vaak vinden ze het - heel begrijpelijk - nog lastig om te bepalen hoe bijvoorbeeld eerlijkheid of uitlegbaarheid daaraan kunnen bijdragen.’

 

Belofte aan klanten goed gestalte geven

‘Het risico daarbij is dat het denken over strategische vraagstukken als 'wat betekent verantwoorde AI voor ons precies?' los blijft staan van de vraag hoe je dat in de praktijk brengt’, vervolgt Wetzels. ‘Hoe zorg je dat je genoeg data scientists in huis hebt? Hoe bouw je een AI-platform op? Hoe valideer je je modellen? Hoe richt je de governance rondom AI in? Die strategische en die praktische kant moeten in elkaar haken om responsible AI echt van de grond te krijgen en te laten renderen. AI is zonder meer veelbelovend, maar onze boodschap is dat je verdraaid goed moet weten wat je aan het doen bent om de beloften aan je klanten daadwerkelijk en op een verantwoorde manier gestalte te geven.’

Contact

Eugénie Krijnsen

Eugénie Krijnsen

Industry Leader Financial Sector, PwC Netherlands

Tel: +31 (0)88 792 36 98

Ruud Wetzels

Director, PwC Netherlands

Tel: +31 (0)61 380 14 31

Volg ons