Dit artikel is tot stand gekomen door een interview tussen Rogier Schoonenberg, (interviewer) die voor zijn afstudeerstage een interview hield  Haris Kodžaga (Data consultant bij Yellowtail Conclusion). 

De Toepassing van AI in het Explainproces

Bij het toepassen van AI op het explainproces zijn er een aantal punten waarmee rekening moet worden gehouden. Daarbij gaat het over het verleden, het heden en de toekomst:

  1. Verleden: het afgelopen financiële gedrag
  2. Heden: wat is de huidige financiële situatie (zoals inkomen en vermogen)
  3. De toekomst: forecasting

Dit zijn onderdelen waar AI mogelijk een toepassing in kan hebben en voordelen kan opleveren. De kracht van AI ligt voornamelijk bij de toepassing op het verleden en het voorspellen van de toekomst. Deze kracht ligt misschien minder bij het bepalen van de huidige situatie, aangezien dat trivialer is.

Bij de toepassing van AI op het verleden kan het afgelopen financiële gedrag geanalyseerd worden. Zo kan er bijvoorbeeld door middel van categorisatie van transactiedata gekeken worden naar de uitgavenpatronen van de klant. Je kunt deze categorieën afstemmen op de specifieke situatie van een klant om te onderbouwen waarom een lening verantwoord is. Dit kan bijvoorbeeld het geval zijn als de werkelijke uitgaven van een klant lager zijn dan de gemiddelde NIBUD-uitgaven.

Bij forecasting kunnen bepaalde kenmerken in betaalgedrag meegenomen worden. In het algemeen gaat het bijvoorbeeld over:

  • Rekening houden met inflatie
  • Rekening houden met inkomstengroei
  • Rekening houden met het soort werk en het niveau ervan
  • Bepalen wat een verantwoorde maandlast is o.b.v. inkomen, uitgaven en betaalmoraliteit

Door deze techniek kun je een kwantitatief onderbouwde argumentatie maken voor een explaindossier, zonder dat er veel menselijke interventie aan te pas komt.

Door de komst van complexe Large Language Models (LLMs), zoals GPT-4, kan een adviseur steeds meer werk laten automatiseren. Zo zouden dit soort modellen ook in staat kunnen zijn een passend advies te genereren voor een klant. Dit moet dan wel slechts als een opzet worden gezien voor een advies waarbij menselijke interventie nog steeds nodig is. De uitkomst van dit soort modellen is namelijk niet geverifieerd. De reden hierachter wordt ook wel het black box probleem genoemd. Het black box probleem, dat betrekking heeft op de onduidelijkheid over hoe een AI-model redeneert en tot een antwoord komt, leidt tot twijfel over de directe juistheid van dat antwoord. Binnen het kader van het explainproces kan dit probleem worden aangepakt door een adviseur de resultaten van het model te laten controleren, waarbij het vierogenprincipe wordt toegepast op de output van het model.

Hoewel begrijpelijk is waarom er zorgen bestaan, is AI geen technologie die mensen zou moeten vervangen. Beschouw het eerder als een krachtig gereedschap dat menselijk werk vergemakkelijkt. Het feit dat AI het werk van mensen niet vervangt maar slechts verlicht, impliceert dat de gebruiker, zoals een hypotheekadviseur, de primaire verantwoordelijkheid behoudt bij het gebruik van de output van het model, inclusief die van een AI-model.

Bij de beoordeling van AI op iemand zijn kredietwaardigheid moet een mens (in dit geval een hypotheekadviseur) een quality control doen op de output van het model.

Door de toepassing van AI kan het explainproces er stapsgewijs als volgt uitzien:

  1. Klant komt bij adviseur, geeft aan wat zijn wensen zijn en de adviseur vraagt de documenten op om kredietwaardigheid te toetsen
  2. Adviseur komt tot de conclusie dat er een tekort is op basis van de gestelde leennormen
  3. De adviseur denkt dat de lening verantwoord is en besluit een explain te schrijven
  4. Adviseur vraagt klant om data te delen (Ja? verder met AI beoordeling; Nee? huidige handmatige proces)
  5. AI analyseert het klantdossier en geeft een beoordeling over de kredietwaardigheid (kans dat de lening wel of niet terugbetaald wordt)
  6. Hypotheekadviseur doet quality control op de output van het model
  7. Hypotheekadviseur schrijft de explain m.b.v. AI output
  8. Vierogenprincipe door Midoffice medewerker
  9. Akkoord lening

2. Wat is de invloed van AI op de foutgevoeligheid, arbeidsintensiteit en tijdsduur van het explainproces?

Digitalisering, afgezien van AI, maakt een proces consistent, wat een voordeel oplevert. Het explainproces zou ook meer geautomatiseerd kunnen worden door middel van een rule-based model. Hierbij zullen de vastgestelde regels altijd gevolgd worden. Dit zorgt ervoor dat, binnen dat geautomatiseerde proces, menselijke fouten niet meer voorkomen. Het is menselijk om in bepaalde situaties toch af te wijken van de standaard. Dit neem je weg door de automatisering/digitalisering van het proces.

Als een model fouten maakt, kunnen we die opsporen. Bijvoorbeeld door een menselijke controle, zoals een adviseur of acceptant. Ook wordt het model voortdurend verbeterd, wat betekent dat het steeds minder fouten maakt.

Computers zijn inherent sneller in berekeningen uitvoeren en het verwerken van grote hoeveelheden data. Het is dan ook vanzelfsprekend dat de arbeidsintensiteit en tijdsduur van het proces afneemt wanneer een deel van het explainproces wordt geautomatiseerd. Arbeidsintensiteit zou hier dan wel in het onderhoud en optimalisatie van het model/systeem zitten.

Over het algemeen zal je bij het explainproces veel winst behalen op het gebied van foutgevoeligheid, arbeidsintensiteit en tijdsduur in het verwerken van een aanvraag als je er een model bij gebruikt/digitaliseert.

De beoordeling die een AI-model kan maken van iemand zijn kredietwaardigheid duurt maximaal een aantal minuten. De tijdsduur is voornamelijk afhankelijk van de complexiteit van het model, maar ook van de beschikbaar gestelde rekenkracht.

3. Wat zijn de kansen van de toepassing van AI op het explainproces?

Naast de reeds besproken kansen zoals standaardisering, afname van menselijke fouten en toename van efficiëntie, zijn er nog andere potentiële voordelen bij het toepassen van AI op het explainproces.

AI creëert ook kansen binnen de hypothekenmarkt. Yellowtail Conclusion maakt zich al lange tijd sterk voor duurhuurders en ZZP’ers. In het algemeen maakt Yellowtail zich sterk voor mensen die in principe prima in staat zijn om een hypotheek te krijgen, maar hier niet voor in aanmerking komen omdat ze niet binnen de bestaande kaders vallen. De toepassing van AI in het explainproces biedt deze mensen een eerlijke kans om een krediet te verkrijgen. Het kan zorgen voor gelijkwaardige kansen en een eerlijkere beoordeling van iemand zijn kredietwaardigheid. Het aantal ZZP’ers in Nederland is de afgelopen jaren sterk toegenomen, terwijl de normen niet zijn veranderd. Hierdoor moet je terugvallen op een explainproces. Als je dat proces tot op een bepaald punt kunt automatiseren, dan zit daar zeker winst in.

4.  Wat zijn de risico’s van de toepassing van AI op het explainproces?

Nalatigheid vormt duidelijk een risico. Bij het explainproces zouden meerdere mensen de output van het AI-model over kunnen nemen, zonder er kritisch naar te kijken en op kwaliteit te toetsen. Bijvoorbeeld doordat adviseurs het gevoel krijgen dat output toch altijd klopt en het hierdoor onnodig vinden om te controleren op fouten. Hierdoor zouden klanten een onverantwoorde lening kunnen krijgen of zou een frauduleus dossier geaccepteerd kunnen worden.

Verder is er een risico dat het explainproces te strak wordt geautomatiseerd. Hierdoor zou belangrijke context bij een klantdossier niet meegenomen kunnen worden en juist de persoonlijke aard van het explainproces zou verloren kunnen gaan.

In een model dat eenvoudigweg het ’three strikes, you’re out’-principe hanteert, bestaat het risico dat een klant wordt afgewezen op basis van bijvoorbeeld gokgedrag, een periode van roodstand en interactie met een incassobureau. Ondanks deze gegevens kan de klant in werkelijkheid een solide financiële positie hebben en de verantwoordelijkheid voor een lening prima kunnen dragen. Het model negeert echter de cruciale context, zoals het ongewenst bij de postcodeloterij zitten en het ervaren van financiële moeilijkheden als gevolg van een persoonlijke crisis. Het benadrukken van deze contextuele elementen onderstreept het belang van menselijke interventie, aangezien dit de enige manier is om in dergelijke gevallen recht te doen aan de volledige situatie.

Wanneer een AI-model aangeeft dat er een aanzienlijke kans bestaat dat een klant de lening niet zal terugbetalen, heeft de adviseur de mogelijkheid om de basis van deze inschatting te onderzoeken. De adviseur kan bijvoorbeeld om aanvullende context vragen aan de klant. Als de adviseur op basis van deze context de aanvraag toch verantwoord acht, kan hij deze overwegingen integreren in de toelichting en afwijken van de beoordeling van de AI. Hiermee benadrukt men het belang van menselijke beoordeling en inzicht in de specifieke situatie, wat het AI-model mogelijk over het hoofd heeft gezien.

Risico’s met betrekking tot transparantie kunnen wellicht worden verholpen door aanvankelijk de normen te valideren via een panel van experts, zoals hypotheekacceptanten, die beoordelen onder welke omstandigheden een dossier al dan niet wordt goedgekeurd. Het resulterende beleid wordt vervolgens geabstraheerd naar een reeks regels, die opnieuw worden gecontroleerd door de experts. Met hun goedkeuring kunnen duidelijke regels worden opgesteld voor het implementeren van AI in het explainproces. Door deze regels te volgen, kan de uitkomst van een AI-model zeer begrijpelijk en transparant zijn.

Dit rule-based model kan deel uitmaken van een verzameling modellen die als één geheel functioneert, ook wel een ‘ensemble’ van modellen genoemd. In dit geval kan bijvoorbeeld een deep learning-model worden gecombineerd met een heuristisch (rule-based) model, wat tal van mogelijkheden biedt.

Data representativiteit en kwaliteit

Het is cruciaal om ervoor te zorgen dat de sampledata die wordt gebruikt bij het trainen van een model voldoende representatief is, en dit vormt een specifiek risico bij het gebruik van AI in het explainproces. Als de data waarmee het model wordt getraind niet adequaat representatief en van goede kwaliteit is, kan dit leiden tot onjuiste en/of subjectieve resultaten. Hierbij blijft de ‘human in the loop’ in het uitlegproces en de feedbackloop bij het model van essentieel belang. Dit stelt ons in staat om mogelijke subjectiviteit, zoals discriminatie, te detecteren en corrigeren. Dergelijke subjectiviteit kan ontstaan uit trainingsdata die niet voldoende representatief is.

5. In hoeverre is AI geschikt om toe te passen op het explainproces?

Het explainproces is hartstikke geschikt om toe te passen op het explainproces. De technologie is al jaren op een goed genoeg niveau om op dit proces toe te passen. Aan de algoritmes en de architectuur ligt het niet. Het ligt vooral aan een stukje bereidheid om de stap te nemen en aan de beschikbaarheid van data. Vooral de data is nog een obstakel.

Met de invoering van de PSD2-regelgeving is het verzamelen en delen van data vereenvoudigd, maar het opstarten van het verzamelen van banktransactiedata blijft een uitdaging. Vooral financiële instellingen, zoals banken en kredietverstrekkers, hebben hierin een sterke positie. Wanneer een consument een krediet wil afsluiten, kan de kredietverstrekker de benodigde data opvragen en het klantdossier gebruiken voor analyses. Vervolgens kan deze data worden ingezet om modellen te verbeteren. Echter, vanwege het aanvankelijke ontbreken van deze data ontstaan er opstartproblemen. Dit betekent dat het gewenste systeem niet onmiddellijk beschikbaar is, maar dat er een opbouwfase nodig is.

Tijdens deze opbouwfase doorloop je de volgende stappen:

  1. Data verzamelen
  2. Data annoteren
  3. Feedback loop implementeren
  4. Bouwen aan een model tot het gewenste model is bereikt (d.w.z. optimaliseren)

Deze stappen markeren de initiële fase waarin het systeem wordt geoptimaliseerd en afgestemd op de specifieke vereisten, waarbij het uiteindelijke doel is het gewenste model te bereiken.


Bijkomende Overwegingen bij de Toepassing van AI

Klanten zijn bereid om data te delen, als het voordeel voor de klant aantrekkelijk genoeg is.

Een reden waarom bedrijven aarzelen om AI te implementeren, zou kunnen zijn dat ze nog niet klaar zijn voor deze stap. Dit kan deels te wijten zijn aan onzekerheid over wat wel en niet is toegestaan bij het gebruik van AI, vooral in relatie tot het verzamelen van meer data voor kredietverstrekking en het daarmee samenhangende risico.

Naarmate je meer data tot je beschikking hebt, neemt ook de noodzaak van een grondig onderzoek toe. Het hebben van data betekent immers dat je verplicht bent deze te controleren en ernaar te handelen. Als adviseur ben je verplicht onvermelde bijzonderheden op te merken en deze bij de aanvrager te verifiëren. Bijvoorbeeld, een maandelijkse bijdrage aan de kerk van 200 euro kan een dergelijke bijzonderheid zijn. Het effect op de leencapaciteit hangt echter af van de aard ervan. Het gebruik van AI, dat bekend staat om zijn verbeterde informatieverwerking, betekent dat de norm voor het herkennen van deze bijzonderheden mogelijk wordt verhoogd. Desondanks nuanceert de AFM’s “Visie Roboadvies” in 4.1 deze aanname door te stellen dat een algoritme minstens op het niveau van een mens moet presteren.

Bovendien brengt de toegenomen afhankelijkheid van AI meer risico’s met zich mee op het gebied van dataveiligheid en dataprivacy. Dit omvat vragen over welke data wel of niet moet worden opgevraagd en in hoeverre men hierin kan gaan.

Uiteindelijk zouden economische ontwikkelingen bedrijven voorzichtiger kunnen maken, met een nadruk op behoudend handelen in plaats van investeren in innovatie, zoals bij de implementatie van AI.

Wil je hier mee over weten? Neem dan gerust contact met ons op