AI-transformation i finansielle tjenesteydelser:en menneskestyret tilgang

I tidligere blogs i denne serie har jeg undersøgt, hvordan førende finansielle tjenester (FS)-organisationer skalerer AI for værdi og bruger en menneskestyret tilgang, herunder agentiske arkitekturer, der genskaber arbejdet.

I denne blog fokuserer jeg på, hvordan man leder den forandring godt:at forfølge forretningsresultater, sætte den rigtige investering og risikovillighed, styre hurtige og distribuerede forandringer og holde skiftet menneskestyret.

AI-transformation i finansielle tjenesteydelser:en menneskestyret tilgang

Accentures Banking Top Trends 2026:Ubegrænset bankvirksomhed er her

Lær mere

En voksende kløft mellem ledere og efternøler 

Vores forskning viser, at 86 % af lederne planlægger at øge deres generative AI (GenAI) investeringer i 2025; 80% forventer, at AI's værdi overstiger forventningerne. Alligevel har kun 34 % af organisationerne skaleret kunstig intelligens til en kerneproces. De, der har, er tre gange mere tilbøjelige til at overstige deres forventede ROI.

Disse ledere deler klare træk:Stærkt CEO-sponsorat, værdi-først-strategier og solidt fundament – sikre digitale kerner, kvalitetsdata, ansvarlige AI-rammer, dygtige teams og virksomhedsuddannelse. Dette mønster er især stærkt i FS.

Med agent AI udvides kløften hurtigere. Ledere er 4,5 gange mere tilbøjelige til at investere strategisk i agentarkitekturer og 6 gange mere tilbøjelige til at øge GenAI-investeringer markant i 2025. De trækker frem og accelererer.

Barrierer for skalering

Organisationer, der sidder fast i proof-of-concept-stadier eller tøver, sakker bagud. Hvad er nogle af barriererne for at skalere AI i finansielle tjenester?

• Lederskabsusikkerhed, begrænsede investeringer og udefineret risikovillighed
• Alt for rigid, ensartet risikostyring
• Begrænset forretningsengagement, der behandler kunstig intelligens som kun en teknisk ændring
• Ældre platforme og fragmenterede data
• Business-case-modeller, der fokuserer snævert på omkostninger, ikke virksomhedsændringer eller genbrug

Men den største barriere er investeringsniveauet i talent, forandring og adoption. For at få succes inden for kunstig intelligens skal vi tage arbejdsstyrken med os på rejsen.

Ved Davos 2026 understregede Accenture denne kløft direkte:Mens virksomheder i dag investerer $3 i teknologi for hver $1 i mennesker, er de, der balancerer begge, 4 gange mere tilbøjelige til at opnå langsigtet profitabel vækst. Pulse of Change-undersøgelsen afslørede også, at selvom ledere ser AI som en vækstmotor, siger kun 43%, at de prioriterer omskoling af arbejdsstyrken til AI-roller. Denne underinvestering i menneskelig kapacitet, især i forandringsledelse og opkvalificering er den kritiske bremse på AI-skalering.

Værdipuljer

Det næste spørgsmål er, hvor skal man investere? Prioritering skal afspejle gennemførlighed, risikovillighed, hurtighed til værdi og overordnede forretningsresultater. Mens hver virksomheds prioriteter er unikke, opstår der klare mønstre. Ved at bruge proprietære analyser på opgaveniveau på tværs af 220 banker identificerede vi en stigning på 29 % i PBT, en mulighed for 255 mia. USD over tre år. De rigeste værdipuljer ligger i kundeservice, salg, IT-teknik, softwarelevering, produktudvikling, prissætning og risiko.

Investeringslyst

Hvis vi ved, hvor vi skal starte, er det næste spørgsmål, om vi har råd. Dette er et fascinerende spørgsmål, fordi kunstig intelligens har ændret sig så hurtigt og traditionelt har været en ganske lille del af investeringerne for de fleste banker og forsikringsselskaber. Ledende administrerende direktører arbejder sammen med CFO'er, CDO'er/CIO'er og bestyrelser for at skabe en ny investeringsappetit for GenAI og agent AI.

Vi har set en betydelig omdirigering af eksisterende forandrings- og teknologifinansiering (30 % i nogle tilfælde), såvel som yderligere engangsfinansiering og accelerationen af eksisterende forandringsinvesteringer ved hjælp af kunstig intelligens. Nogle AI-ledere er allerede begyndt at selvfinansiere deres investeringer gennem tidlige afkast.

Investeringsporteføljen

En afbalanceret investeringsportefølje til kunstig intelligens er nyttig (Hosanger, 2025), i betragtning af spredningen af investeringer:på tværs af forskellige forretningsområder og funktioner; mellem omkostningsreduktion, vækst og genopfindelse; mellem hurtige gevinster (der skaber konsensus, momentum og læring) og langsigtede forandringer (nødvendig for mere meningsfulde gevinster).

En afbalanceret AI-portefølje spreder investeringer på tværs af:

    • Forretningsområder og funktioner
    • Omkostningsreduktion, vækst og genopfindelse
    • Hurtige gevinster, der skaber momentum
    • Længeresigtede initiativer, der frigør dybere værdi

Hvilken ændring skal disse investeringer rettes mod? Det er klart, at der skal investeres i selve AI, indkøb og træning af agenter fra økosystempartnere til udvikling af interne agenter og test. Det, der plejer at blive savnet, er de løbende investeringer i 'gode fundamenter' såsom:

    • Forenede AI-platforme for at reducere sprawl
    • Overvågningsfunktioner
    • Datastof og parathed
    • Ansvarlig AI-værktøj
    • Genopfindelse af proces og værdistrøm

Den største multiplikator af ROI er investering i mennesker, lederskab, adoption, færdigheder og nye måder at arbejde på. Alligevel bruger organisationer i dag $3 på teknologi for hver $1 på mennesker, hvilket efterlader betydelig værdi uudnyttet.

Eksempel fra den virkelige verden:Hurtigt at finde de rigtige investeringer

For en stor asiatisk bank samarbejdede vi med den administrerende direktør for at etablere ansvarlig AI, opbygge kapacitet og etablere AI CoE og leveringsplatformen, sideløbende med hurtig vurdering af hundredvis af ideer for ønskværdighed, gennemførlighed og levedygtighed. Resultatet:35 GenAI-ændringer leveret på 18 måneder, hvilket frigør 200 millioner dollars årlige produktivitetsfordele og halverer kundeforespørgselshåndteringstider, mens kreditvurderingstiden reduceres med 80 %. En struktureret måde at vurdere og styre porteføljen på er afgørende.

Genbrug og gentagelige investeringsmønstre

Genbrug er afgørende. Modulære AI-komponenter reducerer implementeringsomkostningerne og øger hastigheden. Hjælpeagenter, der uddrager, opsummerer, researcher, gennemgår, tester, kan bruges på tværs af flere arbejdsgange. For eksempel kan en dokumentudtrækningsagent understøtte KYC, applikationer, underwriting og servicering.

Hver genbrug kræver stadig konteksttest, adoptionsdesign og overvågning. Ligesom medarbejderne har agenter brug for både virksomhedens "introduktion" og rollespecifik træning.

Risikoappetit og ansvarlig AI

Så langt, så godt? Værdi og investeringer stiger, men skalering af kunstig intelligens kræver klare beslutninger om, hvor og hvordan den skal bruges ansvarligt.

Et kerneansvar for ledelse og bestyrelse er at forme "hvor skal man spille" risikoappetitten for AI:at beslutte, hvilke beslutninger, processer og kundeinteraktioner, der er passende for AI - og hvilke der ikke er. Disse valg bør være eksplicitte, gennemgås med jævne mellemrum og tilpasses forretningsstrategi, lovgivningsmæssige forventninger og kulturelle værdier.

Risikoappetit skal være kontinuerlig, ikke episodisk. Førende FS-organisationer implementerer overvågning i realtid og AI-kontrolrum for at spore modeldrift, datastrømme, agentkæder, adoptionskvalitet og ansvarlige AI-resultater.

Bestyrelser, regulatorer og ledelsesteams har brug for klar gennemsigtighed:hvor AI er implementeret, hvad det gør, og om det fungerer efter hensigten. Stærke ansvarlighedsrammer skal styrke denne gennemsigtighed og sikre ejerskab, eskalering og rettidig indgriben, når risici dukker op.

Gør AI til en ansvarlig ændring i skala

Lad os nedbryde nøgleaspekterne af ansvarlig AI yderligere og se på den ændring, de kræver.

Bias og skadesforebyggelse er afgørende for både kolleger og kunder. Vores mål er enkelt:undgå skade og gøre godt med AI. Vi reducerer bias gennem godt design, træningsdata af høj kvalitet, retfærdig behandling på tværs af grupper og streng test og overvågning. Selv veltestede modeller kan glide, så de har brug for løbende kontrol og eskalering, når der opstår problemer, især omkring beskyttede attributter. Mennesker bærer også skævheder, så vi må designe interaktioner, hvor mennesker og agenter kan lære sammen og modvirke skævhed sammen.

I HR kræver ansvarlig AI særlig omhu. EU AI-loven begrænser, hvordan arbejdsgivere kan bruge AI i beslutninger, der påvirker folks karrierer og liv, såsom ansættelser, forfremmelser og løn. Selv når AI giver forudsigelser eller anbefalinger om arbejdsstyrken, skal dens brug være etisk, klart afgrænset, videnskabeligt funderet og retfærdig på tværs af alle medarbejdergrupper.

Gennemsigtighed, forklarlighed og nøjagtighed betyder noget. Kunder og kolleger vil gerne vide, hvornår og hvordan AI bliver brugt, og i mange FS-processer forventer de 100 % nøjagtighed. Vi skal afsløre brugen af ​​AI, især da grænseflader bliver mere konverserende og menneskelignende. AI-output skal kunne fortolkes, spores og understøttes med citater (for eksempel bør et investeringsresumé pege tilbage til kildedokumenter). Pålidelighed er afgørende. GenAI kan hallucinere eller producere fejlbehæftede output, hvilket underminerer tilliden. Mens nøjagtigheden forbedres, skal vi træne folk til at opdage fejl og agere som årvågne "mennesker i spidsen", især for beslutninger, der står over for kunder, understøttet af AI-agenter.

AI øger også risici for privatliv, fortrolighed og cybersikkerhed. AI-systemer skal følge databeskyttelsesregler, herunder "minimum nødvendigt" databrug. Kolleger skal kunne forklare, hvilke kunde- eller medarbejderdata der blev brugt. På et grundlæggende niveau har de brug for klar vejledning om sikker prompt - for eksempel aldrig at indtaste klient-, kollega- eller fortrolige data i offentlige værktøjer. Beskyttelsesregler, herunder "minimum nødvendigt" databrug. Kolleger skal kunne forklare, hvilke kunde- eller medarbejderdata der blev brugt. På et grundlæggende niveau har de brug for klar vejledning om sikker prompt, for eksempel aldrig at indtaste klient-, kollega- eller fortrolige data i offentlige værktøjer.

Tillid muliggør hurtigere skalering

For et mere dybdegående overblik, tag et kig på Rethinking Responsibility with Generative AI. Vi hjælper kunder med at sætte den rigtige retning med hensyn til risikovillighed og ansvarlig AI, ved at bevæge os fra principper til praksis. Et eksempel er vores arbejde med Monetary Authority of Singapore, hvor vi hjalp med at opbygge branchedækkende rammer, værktøjer og metoder som en del af Project Veritas. Med udgangspunkt i dette samarbejde har Monetary Authority of Singapore og dets industripartnere, herunder Accenture, omsat dette arbejde til praktisk vejledning med eksempler, der har til formål at hjælpe finansielle institutioner med at sætte ansvarlig AI i aktion og accelerere værdi sikkert i stor skala.

Uden ansvarlig AI til at opbygge tillid, går adoptionen i stå, og værdisagen kollapser. I regulerede industrier som FS gør en klar risikoappetit og ansvarlig AI-praksis organisationer i stand til at skalere med tillid, hurtigt og sikkert. Ligesom navigationssystemer og sikkerhedsseler i en bil lader de os bevæge os hurtigt uden at miste kontrollen.

At lede en hurtigt udviklende forandring

Det er afgørende at behandle kunstig intelligens som en hurtigt udviklende ændring, ikke en lineær ændring med et fast mål.

AI går to til tre gange hurtigere frem end tidligere teknologibølger, hvoraf ingen er færdige. Regulatoriske, kunde- og samfundsforventninger skifter lige så hurtigt.

AI's tekniske muligheder udvider højere nøjagtighed med færre fejl, stærkere ræsonnement og logik, forbedrede multimodale input og output. Opgaver en gang uden for rækkevidde (ræsonnement, beregning, handling) bliver styrker. Alligevel påvirker AI ikke alle opgaver lige meget. Dell'Aqua et al. (2023) viser en ujævn grænse, hvor nogle opgaver gavner stort, mens andre ikke gør. Den grænse flytter sig, efterhånden som kapaciteten vokser.

Hundredvis af nye modeller dukker op, hver med forskellige styrker og omkostninger. Det er vigtigt at vælge den rigtige model. Agentarkitektur er ofte afhængig af mindre specialmodeller. I Accenture Refinery og med vores økosystempartnere bruger vi model "omskifterborde" til at vælge den bedste mulighed, mens vi integrerer de rigtige kontroller.

Dette tempo bør ikke udløse passivitet. Det kræver en adaptiv, kontinuerlig tilgang til forandring. AI er ikke et lineært program med start og slutning. Det er løbende. Det har brug for vedvarende finansiering og udholdende teams, ikke 'stå op og ned'-projekter. Det kræver åbenhed over for uventede udviklinger og signaler fra konkurrenter og partnere, iterativ læring, feedback fra kunder og kolleger og en væksttankegang - ikke en fast tankegang.  Hurtige forandringer skaber first-mover-fordele og sammensatte effekter i værdirealisering og læring.

At lede en distribueret forandring

AI skal behandles som en distribueret forretningsændring, ikke et centraliseret projekt.

AI breder sig hurtigt over hele virksomheden og accelererer arbejdet overalt. Hvad der engang tog år, tager nu måneder; det, der tog måneder, tager nu uger. Dette skaber betydelige muligheder, men kun hvis ledere og teams tilpasser sig en fælles vision og opererer inden for klare værn.

Uden tilpasning fører distribuerede forandringer hurtigt til dobbeltarbejde og uorden. Ledere på tværs af virksomheden har brug for støtte til at identificere muligheder af høj værdi og få adgang til leveringsevne. Større AI-initiativer kræver også stærke virksomhedsproduktejere, ikke kun CDO'en eller CIO'en, for at sikre, at resultater er baseret på reelle kundebehov og kommerciel værdi.

Efterhånden som AI bliver gennemgående, skal HR-funktionen udvikle sig. HR-teams i banker og forsikringsselskaber skal hjælpe arbejdsstyrken med at blive klar til AI og overgangen til nyt arbejde - men også gøre sig klar til den menneskelige x agentarbejdsstyrke i stor skala. HR’s mandat strækker sig nu til at orkestrere en kombineret arbejdsstyrke af mennesker og intelligente agenter. Dette omfatter opbygning af AI-færdigheder i høj fart, omformning af jobarkitekturer, udvidelse af læringsforløb med partnere og fremme af en kultur af nysgerrighed og samlæring. Ved at integrere AI-træning, etik og ændre modstandsdygtighed i kernetalentpraksis kan HR hjælpe medarbejderne til at arbejde trygt med AI i stedet for at frygte det.

Mange finansielle serviceorganisationer driver allerede AI-centre of excellence eller fødererede AI-netværk. For at være effektive skal disse teams være tværfaglige og spænde over datateknik, modeludvikling, prompt engineering, test, arbejdsdesign, kollegaengagement, adoption og forandringsledelse. Vi har bygget sådanne teams til kunder i alle størrelser. Deres succes afhænger af adgang til de rigtige værktøjer, modeller, infrastruktur, datagrundlag og stærke ansvarlige AI-værn.

At lede en menneskelig forandring

Værdi, investering, ansvarlig skalering og distribueret forandring betyder noget, men AI lykkes kun, når det behandles som en menneskecentreret forandring. AI skal fungere for kunder og kolleger. En menneskestyret tilgang er en del af ansvarlig forretning og giver langt større afkast. Det opbygger tillid, adresserer bekymringer, understøtter interaktion mellem mennesker og agenter, driver adoption og muliggør nye måder at arbejde på.

Tillad

Tillid er kernen i enhver transformation. Teams har brug for psykologisk sikkerhed for at eksperimentere og tage nye måder at arbejde på (Edmondson, 2018). Frygt, konflikter og lav tillid står for 85 % af mislykkede transformationer (Accenture Transformation GPS, 2025).

Arbejdere har blandede synspunkter om AI. Mange ønsker at lære og bruge det og stoler ofte på det allerede i deres personlige liv. Samtidig bekymrer de sig om jobsikkerhed, arbejdsintensitet, adoption og etik. Ledere skal reagere med en klar arbejdsstyrkestrategi, ærlig kommunikation og integritet i, hvordan forandringer styres.

Jobsikkerhed

Dette er et område med polariseret kommentar. AI vil automatisere nogle job, udvide mange flere og skabe nye. Effekterne vil være ujævne og vil udfolde sig over tid.

Kun 29 % af CXO'er peger på modstand fra arbejdsstyrken som en GenAI-barriere, mens 40,8 % af medarbejderne frygter jobafskedigelse – en adoption, som risikoledere ikke har råd til at ignorere (Accenture, Learning, Reinvented survey, 2025).

Ledere skal styrke, at folk, der omfavner AI, vil trives. Som Andrew Ng udtrykte det til Davos, "en person, der bruger kunstig intelligens, vil være så meget mere produktiv, de vil erstatte en person, der ikke gør det." Målet er ikke at erstatte folk, men at hjælpe dem med at udkonkurrere gennem augmentation. Klare omskolingsveje, synlig investering i medarbejdere og praktiske muligheder for at lære gør angst til adoption.

Arbejdsstyrkeplaner tilpasset AI-investeringer kan reducere unødvendige afskedigelser ved at administrere ansættelser, omskoling og omplacering. Folk har brug for tid til at opbygge færdigheder og tilpasse sig, og en plan hjælper med at styre disse bestræbelser. Ledere skal kommunikere autentisk og ramme ændringer positivt, hvor det er muligt.

Arbejdsintensitet og selvstændighed

AI omformer menneske-maskine-grænser og arbejdets psykologi. Generativ og agent AI kan true en arbejders følelse af kompetence, autonomi og forbindelse. 60 % af arbejderne frygter, at kunstig intelligens vil øge stress og udbrændthed, men kun 37 % af lederne forventer dette. Vi skal reagere gennem ledelse og gennemtænkt arbejdsdesign.

Deltagende design

MITs Acemoglu og Johnson (2023) fremhæver den kritiske rolle, som arbejderinvolvering spiller i teknologi- og AI-udvikling - især i problemdefinition og co-design af arbejde. Dette fører til bedre løsninger, adoption og brug, hvilket resulterer i større værdirealisering.

Godt arbejdsdesign holder mennesker i kontrol over tempo og stil. Det muliggør ydeevne og bevarer plads til kreativitet. Når AI f.eks. reducerer den tid, der bruges på at udarbejde investeringsforslag, kan relationsforvaltere fokusere på dybtgående klientarbejde – rådgivning, relationsopbygning og beslutningsstøtte.

Test af kunstig intelligens med eksperter forbedrer også forklaringen og tilliden. Et DeepMind–Moorfields-studie viste, at nedbrydning af AI's ræsonnement øgede ekspertforståelse og -tillid.

Eksempel fra den virkelige verden:Opbygning af tillid

Hos en stor bank har vi designet en række kommercielle bankvirksomhed AI-aktiverede procesløsninger med relationslederne og deres teams. Disse var en hård skare - ekspert fastansatte fagfolk, typisk ret skeptiske over for teknologi og naturligvis beskyttende over for deres kunder. Vi var i stand til at opbygge tillid gennem deres involvering og test af AI i udvikling. Dette fortsatte med deres løbende feedback under pilotprojektet og opskalering for at lave forbedringer, hvilket førte til bedre arbejde, tillid og adoption.

Adoption og overgang

At adoptere AI betyder at starte nyt arbejde - prompte, bruge agenter, kontrollere output - og stoppe gammelt arbejde. Begge kan fremkalde ubehag. Og det vil ske gentagne gange i løbet af de kommende år.

AI kan føles intuitiv, men adoption sker ikke automatisk. Organisationer har brug for gentagelige mønstre for parathed og værdirealisering. Når ledere fremstiller kunstig intelligens som en katalysator for kreativitet, er medarbejderne 20 % mere sikre på at tilpasse deres vaner.

Hvad hjælper:

    • Per-historier
    • Fjring af sejre
    • Tydelige, autentiske ledelsesmeddelelser
    • Praktiske trin og små eksperimenter
    • Sikkere steder at prøve og lære

Motivationen varierer. Tidlige brugere ønsker adgang og kontinuerlig læring. Flertallet har brug for vejledning og tid. Sen adoptere har brug for tryghed og tillid. Beviser viser konsekvent et skarpt skel mellem medarbejdere, der allerede bruger AI, og dem, der ikke gør.

Måling betyder noget. Spor adgang, brug, populære prompter og agenter og dybden af ​​integration i arbejdsgange. Mål ændringer i tidsforbrug, kvalitet og resultater. Analyser mønstre på tværs af roller, teams og lokationer. Hold målingen "cool, ikke uhyggelig" – fokuser på gruppeindsigt, ikke overvågning.

Tidlige implementeringer sætter tonen. Adoption mislykkes, når AI primært er indrammet som omkostningsbesparelse, når løfter bliver brudt, når træningen er overdrevent teknisk, når værktøjer sidder uden for arbejdsgange, eller når AI frigives, før den er klar.

Eksempel fra den virkelige verden:Opbygning af AI-adoption i en global bank

Hos en global bank øgede vi brugen af ChatGPT Enterprise og Microsoft Copilot med mere end 400 %. Vores tilgang tilskyndede til udforskning først frem for pres. Tre grupper opstod:

    • Early adopters (10 %)
    • Følgere (80 %)
    • Sene brugere og skeptikere (10 %)

Ved at styrke de tidlige brugere, hjælpe 80 % med at se praktisk værdi og tage de første skridt, fremskyndede vi både adoption og resultater. Til sidst kom de fleste af de sene brugere ombord, da de så fordelene for deres kolleger.

Etisk brug af kunstig intelligens

Mange arbejdere stiller spørgsmålstegn ved, om kunstig intelligens vil blive brugt etisk. 53 % bekymrer sig om outputkvalitet og uklar ansvarlighed, men kun 21 % af lederne ser dette som en bekymring.

Hvis organisationer har klare rammer for risikovillighed og ansvarlig AI-praksis, skal de gøre dem synlige. Ledere bør vise, hvordan denne praksis styrer beslutninger, sikrer gennemsigtighed, håndterer risici og tydeliggør ansvarlighed. Tydelige kanaler til at rejse bekymringer er afgørende.

Eksempel fra den virkelige verden:At skabe ansvarlighed for ansvarlig AI

På en FS-institution adresserede vi etiske bekymringer gennem både handling og kommunikation. Vi etablerede ansvarlige AI-retningslinjer, uddannede produktejere med klare ansvarsområder, involverede medarbejdere i co-design, byggede forklaringsværktøjer, skabte rapporterings- og whistleblowing-kanaler og oprettede en anden forsvarslinje med fokus på AI-overvågning. Ledere kommunikerede disse tiltag klart og konsekvent.

Takeaway-spørgsmål til ledere

Nogle nøglepunkter, du måske ønsker at reflektere over – fortæl mig dine tanker og ideer:

    1. Skalering: Skalerer du AI for værdi, eller sidder du fast i piloter?
    2. Investering: Er dine investeringer tilpasset værdipuljer og risikovillighed?
    3. Ansvarlig: Har du defineret og kommunikeret ansvarlig AI klart?
    4. Konstant ændring: Behandler du kunstig intelligens som en igangværende udvikling, ikke et engangsprogram?
    5. Distribueret: Er du klar til at bruge og genbruge agenter på tværs af virksomheden?
    6. Menneskeledet: Leder du dine medarbejdere ind i AI-rejsen, styrker adoption og understøtter menneskelige bekymringer og behov?

Ser fremad

I min næste blog undersøger vi, hvordan vi kan genskabe arbejdsstyrken med AI som en kollega.

Læs vores Top Banking Trends for 2026 for at forbinde disse måder at føre distribuerede, hurtige forandringer til de bredere markedssignaler på.  rapport. 


bankvirksomhed
  1. valutamarkedet
  2. bankvirksomhed
  3. Valutatransaktioner