I tidligere blogs i denne serie har jeg undersøgt, hvordan førende finansielle tjenester (FS)-organisationer skalerer AI for værdi og bruger en menneskestyret tilgang, herunder agentiske arkitekturer, der genskaber arbejdet.
I denne blog fokuserer jeg på, hvordan man leder den forandring godt:at forfølge forretningsresultater, sætte den rigtige investering og risikovillighed, styre hurtige og distribuerede forandringer og holde skiftet menneskestyret.

Accentures Banking Top Trends 2026:Ubegrænset bankvirksomhed er her
Lær mere
Vores forskning viser, at 86 % af lederne planlægger at øge deres generative AI (GenAI) investeringer i 2025; 80% forventer, at AI's værdi overstiger forventningerne. Alligevel har kun 34 % af organisationerne skaleret kunstig intelligens til en kerneproces. De, der har, er tre gange mere tilbøjelige til at overstige deres forventede ROI.
Disse ledere deler klare træk:Stærkt CEO-sponsorat, værdi-først-strategier og solidt fundament – sikre digitale kerner, kvalitetsdata, ansvarlige AI-rammer, dygtige teams og virksomhedsuddannelse. Dette mønster er især stærkt i FS.
Med agent AI udvides kløften hurtigere. Ledere er 4,5 gange mere tilbøjelige til at investere strategisk i agentarkitekturer og 6 gange mere tilbøjelige til at øge GenAI-investeringer markant i 2025. De trækker frem og accelererer.
Organisationer, der sidder fast i proof-of-concept-stadier eller tøver, sakker bagud. Hvad er nogle af barriererne for at skalere AI i finansielle tjenester?
• Lederskabsusikkerhed, begrænsede investeringer og udefineret risikovillighed
• Alt for rigid, ensartet risikostyring
• Begrænset forretningsengagement, der behandler kunstig intelligens som kun en teknisk ændring
• Ældre platforme og fragmenterede data
• Business-case-modeller, der fokuserer snævert på omkostninger, ikke virksomhedsændringer eller genbrug
Men den største barriere er investeringsniveauet i talent, forandring og adoption. For at få succes inden for kunstig intelligens skal vi tage arbejdsstyrken med os på rejsen.
Ved Davos 2026 understregede Accenture denne kløft direkte:Mens virksomheder i dag investerer $3 i teknologi for hver $1 i mennesker, er de, der balancerer begge, 4 gange mere tilbøjelige til at opnå langsigtet profitabel vækst. Pulse of Change-undersøgelsen afslørede også, at selvom ledere ser AI som en vækstmotor, siger kun 43%, at de prioriterer omskoling af arbejdsstyrken til AI-roller. Denne underinvestering i menneskelig kapacitet, især i forandringsledelse og opkvalificering er den kritiske bremse på AI-skalering.
Det næste spørgsmål er, hvor skal man investere? Prioritering skal afspejle gennemførlighed, risikovillighed, hurtighed til værdi og overordnede forretningsresultater. Mens hver virksomheds prioriteter er unikke, opstår der klare mønstre. Ved at bruge proprietære analyser på opgaveniveau på tværs af 220 banker identificerede vi en stigning på 29 % i PBT, en mulighed for 255 mia. USD over tre år. De rigeste værdipuljer ligger i kundeservice, salg, IT-teknik, softwarelevering, produktudvikling, prissætning og risiko.
Hvis vi ved, hvor vi skal starte, er det næste spørgsmål, om vi har råd. Dette er et fascinerende spørgsmål, fordi kunstig intelligens har ændret sig så hurtigt og traditionelt har været en ganske lille del af investeringerne for de fleste banker og forsikringsselskaber. Ledende administrerende direktører arbejder sammen med CFO'er, CDO'er/CIO'er og bestyrelser for at skabe en ny investeringsappetit for GenAI og agent AI.
Vi har set en betydelig omdirigering af eksisterende forandrings- og teknologifinansiering (30 % i nogle tilfælde), såvel som yderligere engangsfinansiering og accelerationen af eksisterende forandringsinvesteringer ved hjælp af kunstig intelligens. Nogle AI-ledere er allerede begyndt at selvfinansiere deres investeringer gennem tidlige afkast.
En afbalanceret investeringsportefølje til kunstig intelligens er nyttig (Hosanger, 2025), i betragtning af spredningen af investeringer:på tværs af forskellige forretningsområder og funktioner; mellem omkostningsreduktion, vækst og genopfindelse; mellem hurtige gevinster (der skaber konsensus, momentum og læring) og langsigtede forandringer (nødvendig for mere meningsfulde gevinster).
En afbalanceret AI-portefølje spreder investeringer på tværs af:
Hvilken ændring skal disse investeringer rettes mod? Det er klart, at der skal investeres i selve AI, indkøb og træning af agenter fra økosystempartnere til udvikling af interne agenter og test. Det, der plejer at blive savnet, er de løbende investeringer i 'gode fundamenter' såsom:
Den største multiplikator af ROI er investering i mennesker, lederskab, adoption, færdigheder og nye måder at arbejde på. Alligevel bruger organisationer i dag $3 på teknologi for hver $1 på mennesker, hvilket efterlader betydelig værdi uudnyttet.
For en stor asiatisk bank samarbejdede vi med den administrerende direktør for at etablere ansvarlig AI, opbygge kapacitet og etablere AI CoE og leveringsplatformen, sideløbende med hurtig vurdering af hundredvis af ideer for ønskværdighed, gennemførlighed og levedygtighed. Resultatet:35 GenAI-ændringer leveret på 18 måneder, hvilket frigør 200 millioner dollars årlige produktivitetsfordele og halverer kundeforespørgselshåndteringstider, mens kreditvurderingstiden reduceres med 80 %. En struktureret måde at vurdere og styre porteføljen på er afgørende.
Genbrug er afgørende. Modulære AI-komponenter reducerer implementeringsomkostningerne og øger hastigheden. Hjælpeagenter, der uddrager, opsummerer, researcher, gennemgår, tester, kan bruges på tværs af flere arbejdsgange. For eksempel kan en dokumentudtrækningsagent understøtte KYC, applikationer, underwriting og servicering.
Hver genbrug kræver stadig konteksttest, adoptionsdesign og overvågning. Ligesom medarbejderne har agenter brug for både virksomhedens "introduktion" og rollespecifik træning.
Så langt, så godt? Værdi og investeringer stiger, men skalering af kunstig intelligens kræver klare beslutninger om, hvor og hvordan den skal bruges ansvarligt.
Et kerneansvar for ledelse og bestyrelse er at forme "hvor skal man spille" risikoappetitten for AI:at beslutte, hvilke beslutninger, processer og kundeinteraktioner, der er passende for AI - og hvilke der ikke er. Disse valg bør være eksplicitte, gennemgås med jævne mellemrum og tilpasses forretningsstrategi, lovgivningsmæssige forventninger og kulturelle værdier.
Risikoappetit skal være kontinuerlig, ikke episodisk. Førende FS-organisationer implementerer overvågning i realtid og AI-kontrolrum for at spore modeldrift, datastrømme, agentkæder, adoptionskvalitet og ansvarlige AI-resultater.
Bestyrelser, regulatorer og ledelsesteams har brug for klar gennemsigtighed:hvor AI er implementeret, hvad det gør, og om det fungerer efter hensigten. Stærke ansvarlighedsrammer skal styrke denne gennemsigtighed og sikre ejerskab, eskalering og rettidig indgriben, når risici dukker op.
Lad os nedbryde nøgleaspekterne af ansvarlig AI yderligere og se på den ændring, de kræver.
Bias og skadesforebyggelse er afgørende for både kolleger og kunder. Vores mål er enkelt:undgå skade og gøre godt med AI. Vi reducerer bias gennem godt design, træningsdata af høj kvalitet, retfærdig behandling på tværs af grupper og streng test og overvågning. Selv veltestede modeller kan glide, så de har brug for løbende kontrol og eskalering, når der opstår problemer, især omkring beskyttede attributter. Mennesker bærer også skævheder, så vi må designe interaktioner, hvor mennesker og agenter kan lære sammen og modvirke skævhed sammen.
I HR kræver ansvarlig AI særlig omhu. EU AI-loven begrænser, hvordan arbejdsgivere kan bruge AI i beslutninger, der påvirker folks karrierer og liv, såsom ansættelser, forfremmelser og løn. Selv når AI giver forudsigelser eller anbefalinger om arbejdsstyrken, skal dens brug være etisk, klart afgrænset, videnskabeligt funderet og retfærdig på tværs af alle medarbejdergrupper.
Gennemsigtighed, forklarlighed og nøjagtighed betyder noget. Kunder og kolleger vil gerne vide, hvornår og hvordan AI bliver brugt, og i mange FS-processer forventer de 100 % nøjagtighed. Vi skal afsløre brugen af AI, især da grænseflader bliver mere konverserende og menneskelignende. AI-output skal kunne fortolkes, spores og understøttes med citater (for eksempel bør et investeringsresumé pege tilbage til kildedokumenter). Pålidelighed er afgørende. GenAI kan hallucinere eller producere fejlbehæftede output, hvilket underminerer tilliden. Mens nøjagtigheden forbedres, skal vi træne folk til at opdage fejl og agere som årvågne "mennesker i spidsen", især for beslutninger, der står over for kunder, understøttet af AI-agenter.
AI øger også risici for privatliv, fortrolighed og cybersikkerhed. AI-systemer skal følge databeskyttelsesregler, herunder "minimum nødvendigt" databrug. Kolleger skal kunne forklare, hvilke kunde- eller medarbejderdata der blev brugt. På et grundlæggende niveau har de brug for klar vejledning om sikker prompt - for eksempel aldrig at indtaste klient-, kollega- eller fortrolige data i offentlige værktøjer. Beskyttelsesregler, herunder "minimum nødvendigt" databrug. Kolleger skal kunne forklare, hvilke kunde- eller medarbejderdata der blev brugt. På et grundlæggende niveau har de brug for klar vejledning om sikker prompt, for eksempel aldrig at indtaste klient-, kollega- eller fortrolige data i offentlige værktøjer.
For et mere dybdegående overblik, tag et kig på Rethinking Responsibility with Generative AI. Vi hjælper kunder med at sætte den rigtige retning med hensyn til risikovillighed og ansvarlig AI, ved at bevæge os fra principper til praksis. Et eksempel er vores arbejde med Monetary Authority of Singapore, hvor vi hjalp med at opbygge branchedækkende rammer, værktøjer og metoder som en del af Project Veritas. Med udgangspunkt i dette samarbejde har Monetary Authority of Singapore og dets industripartnere, herunder Accenture, omsat dette arbejde til praktisk vejledning med eksempler, der har til formål at hjælpe finansielle institutioner med at sætte ansvarlig AI i aktion og accelerere værdi sikkert i stor skala.
Uden ansvarlig AI til at opbygge tillid, går adoptionen i stå, og værdisagen kollapser. I regulerede industrier som FS gør en klar risikoappetit og ansvarlig AI-praksis organisationer i stand til at skalere med tillid, hurtigt og sikkert. Ligesom navigationssystemer og sikkerhedsseler i en bil lader de os bevæge os hurtigt uden at miste kontrollen.
Det er afgørende at behandle kunstig intelligens som en hurtigt udviklende ændring, ikke en lineær ændring med et fast mål.
AI går to til tre gange hurtigere frem end tidligere teknologibølger, hvoraf ingen er færdige. Regulatoriske, kunde- og samfundsforventninger skifter lige så hurtigt.
AI's tekniske muligheder udvider højere nøjagtighed med færre fejl, stærkere ræsonnement og logik, forbedrede multimodale input og output. Opgaver en gang uden for rækkevidde (ræsonnement, beregning, handling) bliver styrker. Alligevel påvirker AI ikke alle opgaver lige meget. Dell'Aqua et al. (2023) viser en ujævn grænse, hvor nogle opgaver gavner stort, mens andre ikke gør. Den grænse flytter sig, efterhånden som kapaciteten vokser.
Hundredvis af nye modeller dukker op, hver med forskellige styrker og omkostninger. Det er vigtigt at vælge den rigtige model. Agentarkitektur er ofte afhængig af mindre specialmodeller. I Accenture Refinery og med vores økosystempartnere bruger vi model "omskifterborde" til at vælge den bedste mulighed, mens vi integrerer de rigtige kontroller.
Dette tempo bør ikke udløse passivitet. Det kræver en adaptiv, kontinuerlig tilgang til forandring. AI er ikke et lineært program med start og slutning. Det er løbende. Det har brug for vedvarende finansiering og udholdende teams, ikke 'stå op og ned'-projekter. Det kræver åbenhed over for uventede udviklinger og signaler fra konkurrenter og partnere, iterativ læring, feedback fra kunder og kolleger og en væksttankegang - ikke en fast tankegang. Hurtige forandringer skaber first-mover-fordele og sammensatte effekter i værdirealisering og læring.
AI skal behandles som en distribueret forretningsændring, ikke et centraliseret projekt.
AI breder sig hurtigt over hele virksomheden og accelererer arbejdet overalt. Hvad der engang tog år, tager nu måneder; det, der tog måneder, tager nu uger. Dette skaber betydelige muligheder, men kun hvis ledere og teams tilpasser sig en fælles vision og opererer inden for klare værn.
Uden tilpasning fører distribuerede forandringer hurtigt til dobbeltarbejde og uorden. Ledere på tværs af virksomheden har brug for støtte til at identificere muligheder af høj værdi og få adgang til leveringsevne. Større AI-initiativer kræver også stærke virksomhedsproduktejere, ikke kun CDO'en eller CIO'en, for at sikre, at resultater er baseret på reelle kundebehov og kommerciel værdi.
Efterhånden som AI bliver gennemgående, skal HR-funktionen udvikle sig. HR-teams i banker og forsikringsselskaber skal hjælpe arbejdsstyrken med at blive klar til AI og overgangen til nyt arbejde - men også gøre sig klar til den menneskelige x agentarbejdsstyrke i stor skala. HR’s mandat strækker sig nu til at orkestrere en kombineret arbejdsstyrke af mennesker og intelligente agenter. Dette omfatter opbygning af AI-færdigheder i høj fart, omformning af jobarkitekturer, udvidelse af læringsforløb med partnere og fremme af en kultur af nysgerrighed og samlæring. Ved at integrere AI-træning, etik og ændre modstandsdygtighed i kernetalentpraksis kan HR hjælpe medarbejderne til at arbejde trygt med AI i stedet for at frygte det.
Mange finansielle serviceorganisationer driver allerede AI-centre of excellence eller fødererede AI-netværk. For at være effektive skal disse teams være tværfaglige og spænde over datateknik, modeludvikling, prompt engineering, test, arbejdsdesign, kollegaengagement, adoption og forandringsledelse. Vi har bygget sådanne teams til kunder i alle størrelser. Deres succes afhænger af adgang til de rigtige værktøjer, modeller, infrastruktur, datagrundlag og stærke ansvarlige AI-værn.
Værdi, investering, ansvarlig skalering og distribueret forandring betyder noget, men AI lykkes kun, når det behandles som en menneskecentreret forandring. AI skal fungere for kunder og kolleger. En menneskestyret tilgang er en del af ansvarlig forretning og giver langt større afkast. Det opbygger tillid, adresserer bekymringer, understøtter interaktion mellem mennesker og agenter, driver adoption og muliggør nye måder at arbejde på.
Tillid er kernen i enhver transformation. Teams har brug for psykologisk sikkerhed for at eksperimentere og tage nye måder at arbejde på (Edmondson, 2018). Frygt, konflikter og lav tillid står for 85 % af mislykkede transformationer (Accenture Transformation GPS, 2025).
Arbejdere har blandede synspunkter om AI. Mange ønsker at lære og bruge det og stoler ofte på det allerede i deres personlige liv. Samtidig bekymrer de sig om jobsikkerhed, arbejdsintensitet, adoption og etik. Ledere skal reagere med en klar arbejdsstyrkestrategi, ærlig kommunikation og integritet i, hvordan forandringer styres.
Dette er et område med polariseret kommentar. AI vil automatisere nogle job, udvide mange flere og skabe nye. Effekterne vil være ujævne og vil udfolde sig over tid.
Kun 29 % af CXO'er peger på modstand fra arbejdsstyrken som en GenAI-barriere, mens 40,8 % af medarbejderne frygter jobafskedigelse – en adoption, som risikoledere ikke har råd til at ignorere (Accenture, Learning, Reinvented survey, 2025).
Ledere skal styrke, at folk, der omfavner AI, vil trives. Som Andrew Ng udtrykte det til Davos, "en person, der bruger kunstig intelligens, vil være så meget mere produktiv, de vil erstatte en person, der ikke gør det." Målet er ikke at erstatte folk, men at hjælpe dem med at udkonkurrere gennem augmentation. Klare omskolingsveje, synlig investering i medarbejdere og praktiske muligheder for at lære gør angst til adoption.
Arbejdsstyrkeplaner tilpasset AI-investeringer kan reducere unødvendige afskedigelser ved at administrere ansættelser, omskoling og omplacering. Folk har brug for tid til at opbygge færdigheder og tilpasse sig, og en plan hjælper med at styre disse bestræbelser. Ledere skal kommunikere autentisk og ramme ændringer positivt, hvor det er muligt.
AI omformer menneske-maskine-grænser og arbejdets psykologi. Generativ og agent AI kan true en arbejders følelse af kompetence, autonomi og forbindelse. 60 % af arbejderne frygter, at kunstig intelligens vil øge stress og udbrændthed, men kun 37 % af lederne forventer dette. Vi skal reagere gennem ledelse og gennemtænkt arbejdsdesign.
MITs Acemoglu og Johnson (2023) fremhæver den kritiske rolle, som arbejderinvolvering spiller i teknologi- og AI-udvikling - især i problemdefinition og co-design af arbejde. Dette fører til bedre løsninger, adoption og brug, hvilket resulterer i større værdirealisering.
Godt arbejdsdesign holder mennesker i kontrol over tempo og stil. Det muliggør ydeevne og bevarer plads til kreativitet. Når AI f.eks. reducerer den tid, der bruges på at udarbejde investeringsforslag, kan relationsforvaltere fokusere på dybtgående klientarbejde – rådgivning, relationsopbygning og beslutningsstøtte.
Test af kunstig intelligens med eksperter forbedrer også forklaringen og tilliden. Et DeepMind–Moorfields-studie viste, at nedbrydning af AI's ræsonnement øgede ekspertforståelse og -tillid.
Hos en stor bank har vi designet en række kommercielle bankvirksomhed AI-aktiverede procesløsninger med relationslederne og deres teams. Disse var en hård skare - ekspert fastansatte fagfolk, typisk ret skeptiske over for teknologi og naturligvis beskyttende over for deres kunder. Vi var i stand til at opbygge tillid gennem deres involvering og test af AI i udvikling. Dette fortsatte med deres løbende feedback under pilotprojektet og opskalering for at lave forbedringer, hvilket førte til bedre arbejde, tillid og adoption.
At adoptere AI betyder at starte nyt arbejde - prompte, bruge agenter, kontrollere output - og stoppe gammelt arbejde. Begge kan fremkalde ubehag. Og det vil ske gentagne gange i løbet af de kommende år.
AI kan føles intuitiv, men adoption sker ikke automatisk. Organisationer har brug for gentagelige mønstre for parathed og værdirealisering. Når ledere fremstiller kunstig intelligens som en katalysator for kreativitet, er medarbejderne 20 % mere sikre på at tilpasse deres vaner.
Hvad hjælper:
Motivationen varierer. Tidlige brugere ønsker adgang og kontinuerlig læring. Flertallet har brug for vejledning og tid. Sen adoptere har brug for tryghed og tillid. Beviser viser konsekvent et skarpt skel mellem medarbejdere, der allerede bruger AI, og dem, der ikke gør.
Måling betyder noget. Spor adgang, brug, populære prompter og agenter og dybden af integration i arbejdsgange. Mål ændringer i tidsforbrug, kvalitet og resultater. Analyser mønstre på tværs af roller, teams og lokationer. Hold målingen "cool, ikke uhyggelig" – fokuser på gruppeindsigt, ikke overvågning.
Tidlige implementeringer sætter tonen. Adoption mislykkes, når AI primært er indrammet som omkostningsbesparelse, når løfter bliver brudt, når træningen er overdrevent teknisk, når værktøjer sidder uden for arbejdsgange, eller når AI frigives, før den er klar.
Hos en global bank øgede vi brugen af ChatGPT Enterprise og Microsoft Copilot med mere end 400 %. Vores tilgang tilskyndede til udforskning først frem for pres. Tre grupper opstod:
Ved at styrke de tidlige brugere, hjælpe 80 % med at se praktisk værdi og tage de første skridt, fremskyndede vi både adoption og resultater. Til sidst kom de fleste af de sene brugere ombord, da de så fordelene for deres kolleger.
Mange arbejdere stiller spørgsmålstegn ved, om kunstig intelligens vil blive brugt etisk. 53 % bekymrer sig om outputkvalitet og uklar ansvarlighed, men kun 21 % af lederne ser dette som en bekymring.
Hvis organisationer har klare rammer for risikovillighed og ansvarlig AI-praksis, skal de gøre dem synlige. Ledere bør vise, hvordan denne praksis styrer beslutninger, sikrer gennemsigtighed, håndterer risici og tydeliggør ansvarlighed. Tydelige kanaler til at rejse bekymringer er afgørende.
På en FS-institution adresserede vi etiske bekymringer gennem både handling og kommunikation. Vi etablerede ansvarlige AI-retningslinjer, uddannede produktejere med klare ansvarsområder, involverede medarbejdere i co-design, byggede forklaringsværktøjer, skabte rapporterings- og whistleblowing-kanaler og oprettede en anden forsvarslinje med fokus på AI-overvågning. Ledere kommunikerede disse tiltag klart og konsekvent.
Nogle nøglepunkter, du måske ønsker at reflektere over – fortæl mig dine tanker og ideer:
I min næste blog undersøger vi, hvordan vi kan genskabe arbejdsstyrken med AI som en kollega.
Læs vores Top Banking Trends for 2026 for at forbinde disse måder at føre distribuerede, hurtige forandringer til de bredere markedssignaler på. rapport.
Hvordan denne 28-årige gik på pension med $2,25 millioner
Aktiemarked i dag:Dow fører bredmarkedsrally, mens Boeing stiger
Hvordan små virksomheder kan holde medarbejderne kølige under COVID-19-genåbner
Sådan får du gratis salgsfremmende varer
Sådan beskytter du din virksomhed mod Coronavirus-svindel