Generatieve AI, van hulpmiddel naar medewerker

Generatieve AI, van hulpmiddel naar medewerker
  • Publicatie
  • 03 jul 2023

Innovatieve toepassingen zoals DALL·E en ChatGPT, die recentelijk voor het grote publiek beschikbaar zijn gekomen, laten de enorme mogelijkheden van generatieve AI zien. AI-technologie wordt steeds menselijker in de interactie en de uitkomsten. Het is daarom noodzakelijk dat er bredere ethische en juridische kaders worden ontwikkeld.

Door: Willem Jan de Voogd (Data & Technology) en Mark Joosse (Public Sector, Legal)

De opkomst van generatieve AI-modellen heeft de technologische horizon rondom AI verruimd. Innovatieve technologieën zoals DALL·E en Midjourney demonstreren overtuigend dat AI in staat is om nieuwe visuele content te genereren die nauwelijks te onderscheiden is van foto’s of kunst van menselijke hand. Een andere belangrijke doorbraak is de opmars van ChatGPT. Binnen slechts twee maanden tijd maakten hier meer dan 100 miljoen mensen gebruik van. Inmiddels worden chatbots als ChatGPT, maar ook Bard, ingezet voor een breed scala aan taken, zoals het schrijven van teksten, programmeren en het doorzoeken van grote teksten op specifieke informatie. 

Generatieve AI is kunstmatige intelligentie die iets nieuws kan creëren uit bestaande data. Het potentieel hiervan reikt verder dan enkel dienstdoen als een efficiënt hulpmiddel of het automatiseren van routinetaken. Geïntegreerd in bestaande organisatieprocessen kan deze technologie zich ontwikkelen tot een ‘digitale medewerker’: een medewerker die niet alleen taken kan uitvoeren, maar ook kan leren, zich kan aanpassen en toegevoegde waarde kan leveren aan de organisatie op manieren die eerder ondenkbaar waren. Omdat de bestaande ethische en juridische kaders voor AI nog niet goed aansluiten op deze nieuwe realiteit, is het belangrijk dat overheden en organisaties zelf bredere kaders ontwikkelen. 

Menselijke chatbots

Vooropgesteld: het ontwikkelen van systemen die op een menselijke manier kunnen communiceren is niet nieuw. Al in de jaren ‘60 werd bijvoorbeeld ELIZA gecreëerd, een chatbot die psychotherapeutische gesprekken kon simuleren. De technologie van toen werkte echter vooral met vooraf gedefinieerde antwoorden en was daarmee beperkt in de interactiemogelijkheden. Nieuw aan generatieve AI-modellen is dat zij tot diepgaande persoonlijke interacties in staat zijn. Zo kunnen ze emoties in taal herkennen en op een passende manier daarop reageren. Uit recent onderzoek blijkt bijvoorbeeld dat ChatGPT over het algemeen beter is dan veel artsen in het geven van empathisch, hoogwaardig advies bij het beantwoorden van patiëntenvragen. Generatieve AI is bovendien niet beperkt tot interactie via tekst. De technologie kan verschillende vormen van interactie - audio, visueel en tekst - combineren. Er zijn dan ook al diverse toepassingen die deze technologie gebruiken om gebruikers een 'luisterend oor' of zelfs een vorm van digitale vriendschap te bieden.

Het empathisch vermogen van chatbots wordt aanzienlijk versterkt door hun capaciteit om autonoom denken en redeneren te simuleren. Mensen komen in gesprekken vaak niet meteen tot een antwoord, maar volgen een bepaald denk- en interactieproces om tot een conclusie te komen. Generatieve AI kan dit natuurlijke proces nabootsen. Zelfstandig of onder begeleiding van de interactie met de gebruiker wordt uiteindelijk een conclusie bereikt. Op die manier kan de toepassing beslissingen nemen die niet vooraf geprogrammeerd zijn, en wellicht nog belangrijker, zichzelf corrigeren. Deze eigenschappen dragen bij aan het vertrouwen in de technologie en de bruikbaarheid ervan, en verbreden het bereik en potentieel van de technologie enorm.

Deze afbeelding is gemaakt met generatieve AI

Handige digitale medewerkers

Generatieve AI wordt niet alleen steeds menselijker, maar overstijgt wat mensen kunnen. Chatbots worden bijvoorbeeld niet moe en kunnen op elk moment van de dag gesprekken voeren. Bovendien ervaren veel mensen een lagere drempel om een gesprek aan te gaan met een bot. Ook is een AI-model vaak beter in staat om door het digitale landschap te navigeren dan een mens, waardoor het sneller en efficiënter informatie kan vinden en verwerken. 

De menselijke kant van generatieve AI in combinatie met haar niet-menselijke capaciteiten biedt vele kansen aan organisaties. Processen die normaal gesproken menselijke inschatting en interactie vereisen, kunnen (gedeeltelijk) worden geautomatiseerd. Er liggen dan ook veel kansen in sectoren waar intensief menselijk contact een rol speelt, zoals onderwijs, HR en gezondheidszorg. AI kan daar een nieuwe rol innemen als 'digitale medewerker' en taken overnemen die voorheen door mensen werden uitgevoerd, zoals het verlenen van persoonlijke begeleiding bij het leren, het onboarden van nieuwe medewerkers, en het voeren van voortgangsgesprekken. Generatieve AI-modellen kunnen zo evolueren van hulpmiddel tot financieel medewerker, docent, junior recruiter of doktersassistent. Ze worden een soort nieuwe 'collega' binnen de organisatie. Dit betekent ook dat onze verwachtingen van hen verschuiven.

Noodzaak van aanvullende kaders voor AI

Onze verwachtingen van AI worden onder meer vastgelegd in ethische en juridische kaders. Zo heeft de EU een AI-verordening ontwikkeld, die gericht is op het waarborgen van transparantie en veiligheid bij het gebruik van AI. De uitdaging van de Europese wetgever ligt enerzijds in het stimuleren van de innovatiemogelijkheden van AI en anderzijds in het indammen van de risico’s rondom het verkeerd gebruik van deze technologie (bijvoorbeeld fraude of manipulatie). Veel juridische en ethische kaders focussen op dit moment op het doel waarvoor AI wordt ingezet, de bijbehorende risico’s en mitigerende maatregelen. AI wordt gezien als een hulpmiddel, dat op een juiste wijze moet worden ingezet.

Maar generatieve AI is méér dan een hulpmiddel: het wordt steeds meer een volwaardige, autonome, digitale ‘persoon’ met wie een persoonlijke en professionele relatie wordt aangegaan. Een logisch gevolg hiervan is dat generatieve AI eigen verantwoordelijkheden, standaarden en rechten zou moeten hebben. Het feit dat generatieve AI steeds meer op mensen lijkt en tegelijkertijd meer kan dan mensen, komt nog onvoldoende naar voren in huidige ethische en juridische kaders.

Uitbreiding ethische principes

De huidige ethische codes focussen vooral op het belang van robuustheid, aansprakelijkheid, inclusiviteit en transparantie in het ontwerp van AI. Het uitgangspunt van deze codes is dat AI als verantwoord instrument moet worden ontworpen en ingezet. Maar als generatieve AI wordt ingezet als ‘digitale medewerker’, mag van AI een zelfstandige, professionele houding worden verwacht. Dit betekent dat bijvoorbeeld de volgende principes aan de huidige ethische codes zouden moeten worden toegevoegd:

  • Aanvechtbaarheid van beslissingen: Het moet mogelijk zijn om de handelingen en beslissingen van digitale medewerkers ter discussie te stellen, net zoals dat kan in menselijke verhoudingen.
  • Morele twijfel: Generatieve AI moet bij morele handelingen expliciet ruimte laten voor discussie over de juistheid van beslissingen. De vraag of iets moreel is, heeft vaak geen binair antwoord (ja of nee). De technologie moet ruimte laten voor het gezamenlijke gesprek waarin het goede wordt gezocht, en ruimte is voor twijfel en discussie. 

Deze principes dienen ter bescherming van de mens en bevorderen transparantie over het morele leerproces van de digitale medewerker. In gevallen waar er een gegronde morele twijfel bestaat, is het belangrijk dat de technologie gebruikmaakt van extra input en sturing van de gebruiker.

Uitbreiding juridisch kader

De functie van generatieve AI in de samenleving kan worden vergeleken met die van ondernemingen. Ondernemingen presenteren zichzelf en acteren in de samenleving als entiteit, met zelfstandige rechten en plichten. In zekere zin is dit echter een bedenksel: achter het optreden van een onderneming gaan altijd bepaalde handelingen en besluiten van mensen schuil. Doordat de wet deze gedragingen toeschrijft aan de onderneming, kan een onderneming als zelfstandige entiteit functioneren. Deze ‘juridische fictie’ lijkt op de ‘digitale fictie’ van generatieve AI. Deze heeft als zelfstandige actor een plek in de samenleving en voert allerlei activiteiten uit. Waar gedrag van ondernemingen altijd direct aan mensen kan worden toegeschreven, kan het gedrag van generatieve AI hooguit indirect aan beslissingen en ontwerpen van mensen worden toegeschreven. 

De huidige regulering van AI ziet vooral op de wijze waarop risico’s moeten worden gemitigeerd. Een omvattender juridisch kader - zoals voor ondernemingen - met bijvoorbeeld rechten, kwaliteitseisen, governance en aansprakelijkheden - ontbreekt echter vooralsnog. 

Kwaliteitsstandaarden

Concreet zouden het juridische en ethisch kader kunnen worden uitgebreid met meer sectorspecifieke en toepassingsafhankelijke kwaliteitsstandaarden. Neem bijvoorbeeld een chatbot die wordt gebruikt voor klantenservice. Deze moet in staat zijn nauwkeurige informatie te verstrekken die strookt met het bedrijfsbeleid en de specificaties van producten of diensten. Bovendien mag deze chatbot geen manipulatieve of misleidende informatie verspreiden. Elke vorm van reclame moet voldoen aan de geldende wet- en regelgeving. De persoonlijke ruimte van de gebruiker moet worden gerespecteerd en er moet worden voldaan aan privacywetgeving. Voor een digitale doktersassistent zouden striktere eisen moeten gelden. Die chatbot moet niet alleen actuele en correcte medische informatie verstrekken, maar ook voldoen aan regels voor de bescherming van medische gegevens. Daarnaast moet de digitale assistent in staat zijn om empathisch te reageren op gebruikers en hun zorgen of angsten te herkennen. In het geval van ernstige gezondheidsproblemen moet de gebruiker worden doorverwezen naar een menselijke collega.

Door heldere en dynamische kwaliteitsstandaarden te implementeren, kunnen we een omgeving creëren waarin AI op een veilige, ethische en transparante manier kan worden gebruikt. In de vorm van een keurmerk voor diverse AI-toepassingen kunnen kwaliteitsstandaarden bijvoorbeeld bijdragen aan gerichte transparantie voor de gebruiker. Met dit keurmerk kunnen gebruikers beter geïnformeerde beslissingen nemen over de diensten die zij willen gebruiken. Ook wordt zo het vertrouwen bevorderd tussen gebruikers en ontwikkelaars van AI. 

Niet alleen voor het gebruik, maar ook voor de verantwoorde ontwikkeling van AI zijn kwaliteitsstandaarden essentieel. Bedrijven en ontwikkelaars krijgen zo een duidelijk kader waarbinnen technologische vooruitgang kan plaatsvinden. Standaarden kunnen de dialoog bevorderen tussen de diverse belanghebbenden - waaronder tech-experts, regelgevende instanties en accountants - over wat maatschappelijk verantwoorde technologie is. Door aan te geven welke aspecten belangrijk zijn voor de veiligheid, bruikbaarheid en acceptatie door de samenleving, helpen kwaliteitsstandaarden bij het beperken van risico's en het stellen van duidelijke doelen voor de evolutie van AI. 

Conclusie

De ontwikkeling en vooruitgang van generatieve AI-modellen zoals chatbots hebben ervoor gezorgd dat ze steeds menselijker gedrag kunnen simuleren, zoals emoties en denkprocessen. Deze evolutie maakt het mogelijk om bepaalde processen, die voorheen menselijke inschatting en interactie vereisten, gedeeltelijk te automatiseren. Hierdoor liggen er veel toepassingsmogelijkheden in gebieden waarin veel menselijk contact plaatsvindt. De opkomst van generatieve AI als digitale medewerkers belooft een transformatie van interactie en dienstverlening in vele sectoren, maar brengt ook nieuwe verantwoordelijkheden met zich mee. De ontwikkeling van bredere ethische en juridische principes, inclusief kwaliteitsnormen afgestemd op de specifieke context van elke toepassing, is essentieel om te zorgen voor een veilige en productieve inzet van deze krachtige technologieën. Hiervoor staan niet alleen overheden, maar ook organisaties zelf aan de lat. 

Contact us

Mona de Boer

Mona de Boer

Partner, Data & Artificial Intelligence, PwC Netherlands

Tel: +31 (0)61 088 18 59

Volg ons