Artificial intelligence en de menselijke maat

Artificial Intelligence (AI) is aan een grote opmars bezig. De introductie van ChatGPT zorgde voor een ongekende disruptie en bracht AI voor veel mensen dichterbij dan ooit. Kunnen we spreken van een revolutie? En wat betekent AI voor de financiële dienstverlening? Data Consultants en AI-deskundigen Skip van der Meer en Haris Kodžaga zien kansen. Heel veel kansen. Maar waarschuwen onder andere voor het ‘blackboxprobleem’.

 AI is niet nieuw en wordt al lang en breed toegepast. Denk aan lineaire regressie, een van de meest gebruikte algoritmes in machine learning. Hiermee kijk je hoe sterk de relatie is tussen twee of meer variabelen. Vervolgens kun je met deze verbanden voorspellingen doen. Dat gebeurt bijvoorbeeld bij verzekeringen: jonge mannen hebben statistisch gezien een hoger risico op autoschade en dus betalen zij meer premie voor hun autoverzekering. Op basis van historische data weten de algoritmes van verzekeraars dat leeftijd en geslacht belangrijke variabelen zijn voor de hoogte van de premie.

Exponentiële groei

Het volgende niveau in AI is deep learning. Een deep learning-model kan zélf nieuwe verbanden vinden en daarmee vervolgens voorspellende patronen vinden. Het bijzondere hieraan is dat deze verbanden en patronen niet eerder door een mens bedacht kunnen zijn. Met andere woorden, deep learning-modellen zijn in staat om op andere manieren te redeneren dan de mens. Hoe die modellen dat precies doen, is echter niet erg inzichtelijk. Sinds vrijwel alle wetenschappelijke onderzoeken online worden gepubliceerd, zie je doorbraak op doorbraak in de wetenschap. Met deep learning werkt het net zo, met een exponentiële groei in AI tot gevolg. De effecten van die groei worden steeds zichtbaarder en de stappen worden steeds groter. In dat opzicht is er nu wel echt sprake van een revolutie die nog veel teweeg gaat brengen.

Betere klantervaring

Op korte termijn zul je zien dat AI de klantervaring gaat verbeteren via chatbots. Nu zorgen chatbots nog vaak voor een stroeve ervaring: met de meest gestelde vragen kan het systeem wel uit de voeten, maar als de vraag specifieker wordt loopt de boel al gauw vast. Deep learning kan dit proces aanzienlijk verbeteren. Stel dat je op een pensioenportaal aan de chatbot kunt vragen om bepaalde pensioentermen uit te leggen. Dat kan positief bijdragen aan de klantervaring. Zo is er bijvoorbeeld een AI-toepassing die brieven van de overheid makkelijker leesbaar maakt voor laaggeletterden. Die mogelijkheid zou je ook kunnen vertalen naar hypotheek- en verzekeringsdocumenten. Ook dat biedt kansen voor de sector.

AI als ultieme tool voor de kredietacceptant

Ga je nog een stap verder, dan kan een AI-systeem ook kredietaanvragen met de bijbehorende documenten valideren en accepteren. Met Optical Character Recognition (OCR) kun je nu al via patroonherkenning gegevens halen uit gestandaardiseerde documenten zoals een paspoort of een werkgeversverklaring en deze gegevens vervolgens apart opslaan. Het gebruik van brondata gaat nu al een stap verder dan OCR en maakt het analyseren van documenten straks helemaal overbodig. Als dat uiteindelijk ook met complexere documenten kan, zoals huur- en koopovereenkomsten, dan heeft een kredietacceptant aanzienlijk minder administratief werk en kunnen algoritmes een belangrijke rol in het acceptatieproces spelen.

Binnen een week een hypotheek

Je mag verwachten dat AI in de wat verdere toekomst het hypotheekaanvraagproces meer gaat automatiseren. De AI-assistent haalt de benodigde data en eventuele documenten op, de AI-acceptant beoordeelt het dossier en de AI-notaris zorgt voor het digitale passeren. De doorontwikkelde chatbot beantwoordt simpele vragen en de hypotheekadviseur controleert uiteindelijk alles. Binnen een week kun je als consument een huis kopen zonder bureaucratische rompslomp. Het zijn allemaal mogelijke toepassingen met behulp van AI. De vraag is alleen: wanneer? Veel partijen hebben het AI-gaspedaal ingedrukt, zoveel is wel duidelijk. Tegelijkertijd weten we ook dat de financiële sector voorzichtig is met de adoptie van nieuwe technologie. Er is dus een groot verschil tussen wat er technisch gezien mogelijk is en wanneer marktpartijen dat als leidend proces zullen implementeren. De rol van challengers zal hierin belangrijk zijn.

De wedloop

OpenAI en Google zijn o.a. in een race om leider op het gebied van AI te worden. Dat heeft ook iets democratiserends, want daarmee krijgen steeds meer mensen toegang tot kennis. Maar wat doe je met gevaarlijke kennis op vragen zoals ‘hoe maak ik een bom?’. Hoe leid je de ontwikkeling van zo’n machine in goede banen? Hoe geef je zo’n systeem ook een moreel kompas – en kan dat überhaupt wel? Dat deep learning zelf verbanden kan leggen is fantastisch, maar daarin schuilt ook precies het moeilijke van deze vorm. De verklaarbaarheid van het algoritme is een complexe aangelegenheid. Het is een soort blackbox. Waar haalt het systeem de kennis vandaan? Waarop is de output gebaseerd? Hoe groter het model wordt en hoe meer data er is om uit te putten, hoe moeilijker dat te traceren is. En hoe voorkom je dat het systeem gaat redeneren op basis van selectiviteit? Stel dat er een wijk is waar veel jongeren wonen die schade rijden met hun auto. Hoe ondervang je dan het risico dat deze hele wijk gekoppeld wordt aan slecht rijgedrag en de goede bestuurders die er wonen daar de dupe van worden? Dat zijn ingewikkelde zaken waar constant bij stil moet worden gestaan tijdens deze ontwikkelingen.

Altijd antwoord

Een ander punt is dat AI-systemen deterministisch zijn. Ze geven altijd antwoord, ook als het niet klopt. In dat geval krijg je het meest passende antwoord. Maar of dat ook goed is, dat weet je niet. Zo kan er heel overtuigend een onwaar antwoord worden geproduceerd. Een mooi voorbeeld is het volgende. We vroegen aan ChatGPT wat Key Control Dashboard is, een platform van Yellowtail Conclusion. Daar had ChatGPT geen goed antwoord op. Maar toen we opdracht gaven om een artikel te schrijven over Key Control Dashboard en cybersecurity, kwam er wél een heel artikel uitrollen. Dit soort tegenstrijdige output wordt ook wel ‘hallucineren’ genoemd. Een term die gebruikt wordt wanneer een AI een ‘zelfverzekerde’ reactie geeft op basis van “wat het kent” (dus waar het op is getraind), maar niet helemaal in lijn ligt met de realiteit.

Zelf verantwoordelijk

Als je een AI-toepassing inzet voor professionele doeleinden, moet je daarom altijd alert zijn. Uiteindelijk ben je zelf verantwoordelijk voor de AI-output die je gebruikt. Naar ons idee is het voorlopig beter om de menselijke kennis leidend te laten zijn en een AI-toepassing als assistent in te zetten. De een vervangt de ander dus niet, maar de twee vullen elkaar aan. Denk aan een AI-toepassing die een hypotheekadviesgesprek notuleert en daar een verslag van maakt inclusief bevindingen en aanbevelingen. Dat is handig. Maar de hypotheekadviseur is en blijft eindverantwoordelijk voor dat verslag, ook vanuit de Wft-verplichting en zorgplicht.

Het menselijke aspect

Met AI kun je niet zonder menselijke maat. Je moet voortdurend controleren: werkt het? Vinden we de output goed genoeg of moeten we er nog aan sleutelen? Ook bij Yellowtail Conclusion voelen we die verantwoordelijkheid. Wij zijn een innovatief bedrijf en we doen veel onderzoek naar hoe we met AI het financiële leven van consumenten makkelijker kunnen maken. Met meer inzicht en eerlijke kansen voor iedereen – en zonder de risico’s van het blackboxprobleem’. Voor ons als Data Consultants is dat spannend en mooi tegelijk. Eén ding is zeker: AI gaat Yellowtail Conclusion en de consument veel brengen, juist doordat we het menselijke aspect goed in het vizier houden.

Skip van der Meer en Haris Kodžaga

ChatGPT blog

Foto van Skip en Haris is gemaakt door DALL-E. kunstmatig intelligentieprogramma dat beelden creëert uit tekstuele beschrijvingen