Kansen en risico’s voor de inzet van kunstmatige intelligentie in de financiële sector

03 oktober 2019 Banken.nl 6 min. leestijd

Digitale transformatie in de bankensector gaat hand in hand met de opkomst van kunstmatige intelligentie. Algoritmen kunnen bijdragen aan verschillende doelen, waaronder  het drukken van de kosten, het optimaliseren van interne bedrijfsvoering, het toegankelijker maken van voorheen dure adviesdiensten voor klanten en helpen tegen fraude en witwassen. Zo groot als het aantal mogelijkheden echter is, zo voorzichtig dient men te zijn met de inzet ervan. Ruben Velstra, adviseur bij Voogt Pijl & Partners, waarschuwt voor de betrouwbaarheid en controleerbaarheid van computergestuurde intelligentie.

Kunstmatige intelligentie heeft iets uitermate futuristisch, niet in de laatste plaats omdat Hollywood er regelmatig mee aan de haal gaat. Op de werkvloer biedt kunstmatige intelligentie op papier ongekende mogelijkheden, maar in de praktijk wordt het momenteel nog vooral ingezet om bestaande processen te automatiseren en of optimaliseren. 

Het gebruik van kunstmatige intelligentie is gebonden aan duidelijk voorwaarden, ook in de financiële sector. Een essentiële rol is weggelegd voor het trainen van de algoritmes die uitkomsten bepalen. Ruben Velstra, consultant bij Voogt Pijl & Partners, legt uit: “Wat veel mensen zich niet realiseren is dat bijna iedereen dezelfde algoritmes gebruikt die veelal open source beschikbaar zijn. Waar het om gaat is, hoe je deze algoritmes vervolgens traint. Cruciaal voor de succesvolle inzet van AI is daarmee de beschikbaarheid van grote hoeveelheden relevante (historische) data. Dit is de reden dat de voornaamste inzet van AI binnen de financiële sector plaatsvindt in het fraudedomein, leningsverstrekking en voor chatbots. Daar is immers historische data volop aanwezig.”

Volgens de adviseur van VP&P zijn snelheid en lagere kosten momenteel de belangrijkste voordelen. “Twee zaken waar zowel de bank als de klant bij gebaat zijn. Waar het aanvragen van een hypotheek, bedrijfslening of verzekering in het verleden vaak een langdurig en ondoorzichtig proces was, is het tegenwoordig mogelijk om direct na afronding van het aanvraagproces uitsluitsel te krijgen. Tegelijkertijd is het gelukt om de van oudsher dure adviesdiensten voor lage tarieven beschikbaar te maken voor de retailmarkt. Denk aan geautomatiseerd vermogensbeheer, zoals Evi van Lanschot.” 

Dunne lijn tussen kansen en risico’s

Er is nog een derde voordeel, dat voortvloeit uit de lage kosten waar algoritmen voor kunnen zorgen. Dat is de mogelijkheid om meer maatwerk te leveren: “Bijvoorbeeld het verstrekken van een hypotheek op basis van iemands betaalhistorie”, geeft Velstra aan. “Deze laatste zou een uitkomst kunnen zijn voor de groep klanten die al jarenlang een hoge huur kunnen opbrengen, maar op basis van tijdelijke contracten niet in aanmerking komen voor een hypotheek. Geen wonder dat het gebruik van algoritmes gepropageerd wordt als klantvriendelijk.”

Kunstmatige intelligentie klinkt veelbelovend en dat is het ook. Maar er zijn ook gevaren, zoals onverantwoord gebruik van technologie en van data. Toezichthouder AFM zette dit risico in de top vijf van actuele risico’s, zo legt Velstra uit. Hij verwijst ook naar de titel van een boek van de hand van Cathy O’Neil, wiskundige en voormalig analist op Wall Street: Weapons of math destruction.

O’Neil stelt in haar boek dat algoritmen eigenlijk iedereen gelijk zouden behandelen, maar de praktijk het tegenovergesteld weerspiegelt. De huidige modellen zijn namelijk ondoorzichtig, ongereguleerd en onbetwistbaar, ook wanneer ze fout zitten. Algoritmen kunnen door hun uitkomsten bijvoorbeeld discriminatie versterken. Op basis van een postcode kan een algoritme al bepalen dat een lening aan iemand uit dat postcodegebied te risicovol is. Volgens O’Neil worden de gelukkigen beloond en de armen bestraft, wat kan resulteren in een zogezegd ‘giftige cocktail voor de democratie’.

Reële risico’s

Velstra onderschrijft de gevaren waar O’Neil voor waarschuwt. “Veel algoritmen die gebruikmaken van deep learning fungeren als een black box, waardoor het überhaupt niet mogelijk is om helder aan te geven op basis van welke overwegingen een klant wordt afgewezen. Doordat klantvragen worden gereduceerd tot een combinatie van kenmerken, als input voor een model, is het lastig als klant om de kleuring en context van zijn situatie kwijt te kunnen. Hiermee kan het gevoel ontstaan niet gehoord te worden. Het gevaar is dat wordt gedacht dat algoritmes bij het maken van onderscheid – in tegenstelling tot mensen – ‘neutraal’ tot een bepaalde uitkomst komen. Dat is niet het geval.” 

"Zowel de data waarmee een algoritme werkt, als het algoritme zelf, kunnen bepaalde vooroordelen bevatten die kunnen leiden tot discriminatie."

Dat algoritmen discriminatie in de hand kunnen werken is al meermaals gebleken in de praktijk. Velstra doelt onder meer op de HR-tool die Amazon testte. Die bleek vrouwen te discrimineren. De input bestond uit cv’s uit het verleden, overwegend mannen. Mannen kwamen daarom positiever naar voren dan vrouwen. “Het gevaar is dat wordt gedacht dat algoritmes bij het maken van onderscheid – in tegenstelling tot mensen – ‘neutraal’ tot een bepaalde uitkomst komen. Dat is niet het geval. Zowel de data waarmee een algoritme werkt, als het algoritme zelf, kunnen bepaalde vooroordelen bevatten die kunnen leiden tot discriminatie.” 

Algoritmen bevorderen niet alleen discriminatie op basis van geslacht of afkomst, ook kunnen ze sociale ongelijkheid versterken. Velstra: “Het risico bestaat dat negatieve patronen versterkt worden. Indien een klant ooit failliet is gegaan of een betalingsachterstand heeft gehad, kan dat de reden zijn hem geen nieuwe financiering te verstrekken. Dit kan vervolgens weer leiden tot meer problemen voor de klant, waardoor het nog lastiger wordt bij een volgende aanvraag.” 

Ethische algoritmes

Voortdurende waakzaamheid is een vereiste bij de inzet van kunstmatige intelligentie. Velstra ijvert zeker niet voor het geheel afzien van algoritmen, maar ijvert voor menselijke herbeoordeling. “Hierbij wordt door een acceptant nogmaals een inhoudelijke toetsing uitgevoerd en de terugkoppeling naar de klant verzorgd. Hierdoor valt echter wel een stuk van de snelheid en het kostenvoordeel weg.” 

Het zorgdragen voor zogenaamde ‘ethische algoritmes’ is een tak van sport op zich. Het belang hiervan wordt wel steeds breder erkend.

“Om die reden zetten veel banken in op uitlegbaarheid en transparantie vanuit de algoritmes zelf”, vervolgt Velstra. “Dit is vanwege de aard van de werking soms moeilijker dan het op het eerste gezicht lijkt. Het zorgdragen voor zogenaamde ‘ethische algoritmes’ is een tak van sport op zich. Het belang hiervan wordt wel steeds breder erkend. Zo is JK Ventures samen met de Volksbank en de Erasmus Universiteit het project ‘Morele richtlijnen voor AI in de financiële sector’ gestart om een ethisch kader te ontwikkelen met concrete morele richtlijnen.” 

Kunstmatige intelligentie neemt bedrijven veel werk uit handen, maar het waarborgen van moraliteit binnen algoritmen blijft vooralsnog mensenwerk. “Financiële instanties dienen zich te realiseren dat bij de inzet van algoritmen keuzes gemaakt dienen te worden over het belang van uitlegbaarheid en transparantie naar de eindklant. Gebeurt dit niet dan kan de uitmuntende klantervaring, die beoogd wordt met de introductie van een fancy algoritme, weleens heel anders uitpakken”, besluit Velstra.