Yellowtail Conclusion is onderdeel van het Conclusion ecosysteem

Een helder AI-beleid opent deuren voor pensioenfondsen

Vanaf februari 2025 gaat de Autoriteit Persoonsgegevens toezien op de naleving van de Europese AI Act. Wat betekent dit voor pensioenfondsen in Nederland? Volgens Roel Moradi, Director Pensioenen en Vermogen, moeten pensioenfondsen de AI Act vooral niet te strikt interpreteren. Want dat is onnodig én het werkt mogelijk zelfs tegen deze fondsen.
2024-12-03 AB24336 Yellowtail Relatie Event-110

AI Act en risicoaversie

Het doel van de AI Act is het bevorderen van de ontwikkeling en invoering van veilige en betrouwbare AI-systemen op de Europese markt. Ook beoogt men met de AI Act de grondrechten van EU-burgers te beschermen en innovatie op het gebied van AI in Europa te stimuleren. Ik merk dat veel bedrijven onzeker zijn over wat de AI Act voor hen betekent. Dat geldt ook voor pensioenfondsen. De Pensioenfederatie heeft fondsen aangeraden om een eigen AI-beleid op te stellen waarin staat waar een fonds AI wel en niet voor wil gebruiken. Het valt mij op dat pensioenfondsen nu tot beleidsvoorstellen komen die vaak behoorlijk restrictief zijn – veel restrictiever dan noodzakelijk is vanuit de AI Act. En dat is jammer, want door deze risicoaversie lopen fondsen mooie efficiency kansen mis.

Weg van de minste weerstand

Bij een aantal fondsen staat in het beleid dat het niet toegestaan is om via AI rechtstreeks te interacteren met de klant, bijvoorbeeld via een AI-gestuurde chatbot. Want, zo vinden zij, het risico is dan te groot dat een deelnemer dan verkeerde info krijgt. Maar die deelnemer heeft nog steeds behoefte aan informatie en wil antwoord op bepaalde vragen over zijn of haar pensioen. Dus wat gaat die deelnemer doen? Die kiest de weg van de minste weerstand en zal zich wenden tot bijvoorbeeld ChatGPT voor antwoorden op vragen. Maar de kans dat die deelnemer daar verkeerde informatie krijgt, is nog veel groter. Naar mijn idee kun je als fonds beter een route kiezen waar je zelf controle over hebt, zoals met een veilige AI-gestuurde chatbot. Dat mag gewoon volgens de AI Act voor deze “low risk” toepassing, als je maar transparant bent naar deelnemers dat zij met een AI chatbot interacteren. Zelf een chatbot hebben levert je als pensioenfonds overigens nog een voordeel op, namelijk dat je leert welke vragen je deelnemers hebben. Daar kun je vervolgens slim op inspelen in je communicatie. Die kans loop je mis als je de vragenstellers “wegstuurt” naar een ander platform.

Van cloudvrees naar AI-vrees

In veel opzichten bouwt de AI Act voort op de Digital Operational Resilience Act (DORA), de Europese verordening gericht op het weerbaarder maken van de financiële sector tegen cyberdreigingen. De beheersing van die risico’s hebben veel fondsen al op orde. AI is daarin maar een klein stapje extra. Toch is de angst voor de risico’s van AI bij veel pensioenfondsen groot. Dat doet me denken aan de “cloudvrees” van een aantal jaren geleden. Men dacht dat dataopslag in de cloud veel minder veilig was dan in eigen datacenters. Zeker met de Amerikaanse Patriot-act, die haaks staat op de Europese General Data Protection Regulation (GDPR). Microsoft heeft als grote cloudpartij echter beveiligingsniveaus die je als individuele organisatie nooit kunt bereiken. Die beveiligingen sluiten goed aan op de eisen die DORA stelt aan risicobeheersing. Daarom zijn organisaties uiteindelijk massaal overgestapt naar de cloud. Toch zijn er binnen de financiële sector partijen die vanuit risicoaversie nog steeds uitsluitend met eigen datacenters werken. Maar dat geeft mijns inziens slechts een schijnveiligheid. Voor AI geldt dat de contractbeveiliging er al is vanuit de cloud. En de data van jouw organisatie blijft van jou en wordt niet gebruikt om bijvoorbeeld modellen mee te berekenen. Het is echt veiliger dan vaak gedacht wordt. Zeker als het, zoals bij onze tools, veilig wordt toegepast. Bijvoorbeeld door gebruik te maken van de Europese datacenters van Microsoft en de zakelijke versie van hun diensten.

Laat je beleid niet tegen je werken

Te strikt zijn met de inzet van AI-toepassingen kan het voor pensioenfondsen ook moeilijker maken om aan bepaalde wetgeving te voldoen. Zo komt de wet op digitale toegankelijkheid eraan [de WCAG]. Het doel van deze wet is dat consumenten met een beperking in staat worden gesteld om zelfstandig gebruik te maken van producten en diensten, waaronder digitale financiële dienstverlening. Een webtekst moet dan ook voor blinden en slechtzienden waarneembaar zijn, bijvoorbeeld door deze voor te laten lezen. Met AI is dit voorlezen goed en betaalbaar op te lossen. Maar heb je als pensioenfonds in je AI-beleid staan dat het niet toegestaan is om via AI rechtstreeks te interacteren met deelnemers, dan zul je dus voor een andere – veel duurdere – oplossing moeten kiezen voor deze doelgroep. En vergeet niet: te dure dienstverlening is óók een risico. Het tegenhouden van vernieuwing die veel voordeel op had kunnen leveren kost geld en dat is uiteindelijk ten nadele van de deelnemers.

Blijf mogelijkheden verkennen

Nul risico bestaat niet. Het gaat om de balans tussen de innovatie, risicobeheersing en het voldoen aan wetgeving. Het is goed om te blijven verkennen hoe je als fonds met AI je dienstverlening kunt verbeteren en je efficiency kunt verhogen. Bij Yellowtail Conclusion ontwerpen, bouwen en beheren we al meer dan 20 jaar baanbrekende digitale en data-gedreven software-oplossingen voor de financiële sector. Oók met AI. Zo bieden we onze klanten chatbottechnologie en een dienst als VisionAI. VisionAI haalt data uit documenten met allerlei opmaak en kan daar via business ruling ook meteen checks op doen. Met als resultaat: een sneller proces van hogere kwaliteit tegen lagere kosten. AI-tools brengen we pas naar de markt als we voldoende risicobeheersing eromheen hebben. Bij onze taal-naar-spraaktool is dat bijvoorbeeld nog niet het geval. Vanuit onze kennis van de financiële sector en van technologie kijken we daarbij altijd naar wat wél mogelijk is, ook als het gaat om AI. Dat is de kracht van Yellowtail Conclusion. Dat wij SOC 2 geïmplementeerd hebben, geeft daarbij extra veiligheid dat we onze risico’s goed beheersen. Ook dat is belangrijk vanuit de AI Act. Daarom nodig ik pensioenfondsen uit om de AI Act niet op voorhand te streng te interpreteren en vooral te kijken naar de mogelijkheden die AI biedt. Uiteraard met oog voor risicobeheersing en de kaders van de wet, net zoals wij dat doen.

Wil je weten hoe AI bij jouw pensioenfonds kan zorgen voor meer efficiency, hogere kwaliteit van de dienstverlening en lagere kosten? Neem dan gerust contact met ons op.

Hypact Advisor, alles-in-één oplossing voor hypotheekadvies en -bemiddeling

Meer weten over onze diensten?

Neem contact met ons op en duik dieper in de mogelijkheden. Ontdek hoe onze dienstverlening en oplossingen kunnen bijdragen aan jouw organisatie.

Waar kunnen we je mee helpen