Finans Debatt

Rätt AI i rätt situation avgörande för bankerna

När banker behöver kunna redovisa hur deras AI-system tagit olika beslut står vi inför en ny situation, skriver AI-specialisten Mårten Nilsson.
Publicerad

I vintras gick rådet för finansiell stabilitet (FSB) ut och varnade för riskerna med artificiell intelligens i finansbranschen. Riskerna är i detta fall inte kopplade till dystopiska farhågor om att robotar ska ta över världen, utan handlar istället om oavsedda och oönskade konsekvenser som användningen av AI kan få. Frågan är i dag hetare än någonsin i samband med att EU:s nya dataskyddsförordning, GDPR, träder i kraft, skriver AI-specialisten Mårten Nilsson, Pegasystems.

Vilka är då riskerna med artificiell intelligens i finansbranschen? För att förstå svaret på frågan är det viktigt att veta att AI kan delas in i två typer – ”transparent” och ”opak” (ej transparent), båda med väldigt olika användningsområden.

Rent tekniskt fungerar det så här: Transparent AI är ett system vars insikter kan förstås och granskas. Opak AI, å andra sidan, har svårt att redovisa hur det arbetar. Inte helt olikt den mänskliga hjärnan kan det vara en utmaning för opak AI att förklara exakt hur det kommit fram till en viss insikt, eller hur ett visst beslut fattades. Utan krav på sig att kunna redovisa hur det arbetar kan opak AI i gengäld ofta leverera mer exakta beräkningar.

När banker i och med GDPR behöver kunna redovisa hur deras system tagit olika beslut står vi inför en ny situation. Plötsligt riskerar de mest tillförlitliga AI-systemen sett till noggrannhet att bli en laglig belastning.

Annons

Ett ytterligare potentiellt problem med opak AI är risken för att systemet agerar diskriminerande och kan komma att föreslå saker som strider mot företagets värderingar. Det kan låta otroligt, men det är lätt för ett AI-system att använda neutral data för att dra slutsatser som sedan leder till icke-neutrala beslut gentemot kunder.

Exempelvis skulle en bank som använder opak AI kunna tolka kunddata och använda det för att ge bättre erbjudanden till kunder baserat på deras etnicitet, kön eller andra variabler. Av uppenbara skäl vore ett sådant scenario katastrofalt.

Så hur vet företag om de använder AI på rätt sätt? För att kunna lita fullt ut på ett AI-system krävs att systemet är transparent, så att företagsledningen kan förstå hur det fungerar. Är systemet opakt behöver det testas innan det tas i bruk, för att säkerställa att det inte agerar diskriminerande eller bryter mot andra regler.

Annons

Banker och andra företag i finansbranschen står inför en ny verklighet där de behöver balansera förbättringar i kundupplevelsen med risker för att bryta mot nya regelverk.

Lösningen handlar om att se till att rätt expertis finns på plats för att övervaka omställningen, precis som Finansiella stabilitetsrådet också rekommenderar. För de som misslyckas hotar dryga böter, men för de som tar utmaningen på allvar är möjligheterna goda att avsevärt förbättra sin relation till kunderna.

Mårten Nilsson
teknisk specialist, Pegasystem

Annons

Annons