Malmö
Skomakaregatan 2211 34 Malmö
Sverige+46 735 124 970hello@kruso.se
The leap from LLMs to AI Agents
Föreställ dig ett lexikon så kraftfullt att det inte bara kan avsluta dina meningar utan också förutsäga de nästa. Det är i grunden vad en Large Language Model (LLM) gör. Den genererar text, besvarar frågor och hjälper dig att skriva snabbare.
Föreställ dig nu något ännu smartare. Istället för att bara föreslå ord bokar den ditt flyg, hanterar din inkorg eller genomför en compliance-kontroll. Det är en AI-agent. Inte bara språk, utan handling. Och det är här det blir riktigt intressant i finansvärlden, för handlingar får konsekvenser.
Banker, försäkringsbolag och betalningsleverantörer drivs alla av enorma digitala system. Med AI-agenter i bilden är möjligheterna enorma. Tänk på kundservicebotar som löser problem på några sekunder, assistenter som övervakar affärer dygnet runt eller verktyg som kan skanna tusentals kontrakt och nästan omedelbart lyfta fram risker. Dessa agenter kan radikalt förbättra effektiviteten och skapa nytt värde.
Men samma kraft öppnar också för nya sårbarheter. Vad händer om en AI-agent fattar fel beslut? Om den skickar data dit den inte borde? Eller om den helt enkelt går offline mitt under en kritisk process? Det är inte längre bara ett litet IT-problem, utan ett potentiellt hot mot den finansiella stabiliteten. Just den utmaningen är kärnan i Europas nya regelverk, Digital Operational Resilience Act (DORA).
DORA är EU:s sätt att säga: ”Innovation är välkommen, men robusthet är icke-förhandlingsbart.” Sedan januari 2025 måste alla finansiella aktörer i Europa uppfylla samma standarder för digital robusthet.
I grunden handlar DORA om förberedelse. Kan ditt företag fortsätta fungera om de digitala systemen slutar fungera? Har ni förmågan att snabbt upptäcka problem, reagera effektivt och rapportera större incidenter till tillsynsmyndigheter? Och kan de teknikpartners ni är beroende av, oavsett om det är molnplattformar, dataleverantörer eller AI-leverantörer, också leva upp till samma standarder? Genom att sätta ett enhetligt ramverk över alla medlemsländer säkerställer DORA att robusthet inte längre är ett lapptäcke av nationella regler, utan en gemensam grund för Europas finansiella system.
AI-agenter är kraftfulla just eftersom de kan agera. Men det gör dem också till en del av ett företags operativa risk. Under DORA måste de behandlas som vilket annat kritiskt ICT-system som helst. Det betyder att företag behöver tydliga ramar så att agenter inte agerar utanför säkra eller compliant gränser. Det betyder också att om en AI-driven process läcker känslig data eller orsakar ett fel, måste det registreras och rapporteras som en digital incident. Och det betyder att varje extern AI-modell eller API ett företag använder blir en del av tredjepartsekosystemet som måste övervakas och testas noggrant.
Med andra ord: AI-agenter ligger inte utanför ramen för robusthetsplanering, de står mitt i den.
There is, however, another side to this story. The same agents that create new risks can also help financial firms meet their resilience obligations. Imagine an assistant that never sleeps, monitoring systems for weak points and flagging problems before they escalate. Or one that auto-drafts incident reports for regulators, saving valuable time during a crisis. Or even one that simulates cyberattacks and tests your digital defences. In this sense, AI agents are not only a challenge under DORA, but also one of the best tools companies will have to comply with it.
LLM:er förutspår. AI-agenter agerar. Och i finansvärlden har handlingar tyngd. DORA ser till att när branschen tar till sig AI och nya former av digital automation, så lämnas inte robusthet och säkerhet åt sidan.
Framtidens finansiella sektor blir inte bara digital, den blir robust från början.