This is the Trace Id: febd28884b268ea6a235e91428749edb

 

Cyber Pulse: En AI-säkerhetsrapport

Ny telemetri och forskning från Microsoft visar att många organisationer nu implementerar AI-agenter. Nu är det dags för ledare att införa insyn, styrning och säkerhet.

Utgåva 1: Introduktion

Framstående organisationer omdefinierar arbetsmetoder där människor och agenter samarbetar sida vid sida så att de kan höja ambitionerna. Nya Microsoft-data visar att dessa team av människor och agenter växer och får global spridning.

Användningen av AI-agenter växer snabbare än vad många företag kan överblicka – vilket innebär en synlighetsbrist som kan utgöra en affärsrisk. Organisationer måste snabbt införa effektiv styrning och säkerhet som garanterar en trygg användning av agenter, innovationsstimulans och riskreducering. Precis som mänskliga användare kräver AI-agenter skydd genom överskådlighet, styrning och robust säkerhet baserat på nolltillitsprinciper. De företag som lyckas i nästa AI-adoptionsfas är de som agerar snabbt och samlar affärs-, IT-, säkerhets- och utvecklingsteam som kan övervaka, styra och säkra AI-transformationen.

I Microsofts ekosystem bygger och distribuerar kunder nu agenter på alla stora plattformar – från Fabric och Foundry till Copilot Studio och Agent Builder – vilket speglar en bred övergång till AI-baserad automatisering i arbetsflödet.

Agentutveckling är inte längre begränsad till tekniska roller; idag skapar och använder medarbetare i olika funktioner agenter i sitt dagliga arbete. Microsofts data visar att över 80 % av Fortune 500-företagen aktivt använder agenter som skapats med lågkods-/no-code-verktyg.1 I takt med att användningen av agenter ökar och möjligheterna till transformation växer, är det nu dags att man etablerar grundläggande kontroller.

Precis som för mänskliga medarbetare innebär nolltillit för agenter följande:
 

  • Minsta privilegier: Ge varje användare, AI-agent eller system endast den åtkomst som krävs – inte mer.

  • Tydlig verifiering: Bekräfta alltid vem eller vad det är som begär åtkomst med hjälp av identitet, enhetsstatus, plats och risknivå.

  • Anta att intrång kan ske: Designa system som är förberedda på att angripare kan ta sig in.

Grafik som visar att över 80 procent av Fortune 500-företagen använder aktiva low code-agentverktyg – fråga Copilot

Användningen av AI-agenter växer snabbt – i alla regioner och branscher

Agentanvändningen ökar snabbt globalt – från Europa, Mellanöstern och Afrika till Nordamerika, Centralamerika, Sydamerika och Asien.2
 Stapeldiagram som visar den regionala fördelningen: EMEA 42 %, USA 29 %, Asien 19 % och Amerika 10 %.
Microsoft ser en tillväxt av AI-agenter i alla branscher. Finans, tillverkning och detaljhandel är ledande branscherna när det gäller användning av agenter. Finanstjänster – inom sektorer som bank, kapitalmarknad och försäkring – står nu för cirka 11 % av alla aktiva agenter globalt.2 Tillverkningsindustrin står för 13 % av den globala agentanvändningen, med bred tillämpning i fabriker, leveranskedjor och energisektor.2 Detaljhandeln står för 9 %, och där används agenterna för att förbättra kundupplevelser, lagerhantering och processer i frontlinjen.2

Utmaningen: vissa av dessa agenter är IT-godkända – andra inte. Vissa av dessa agenter är säkra – andra är det inte.
Överlappande cirklar som illustrerar branschfördelningen: Programvara och teknik 16 %, tillverkning 13 %, finansiella tjänster 11 %, detaljhandel 9 %.

Risken med dubbelagenter

En snabb distribution av agenter kan leda till att säkerhets- och efterlevnadskontrollerna inte hänger med, vilket ökar risken för skugg-AI. Illasinnade aktörer kan utnyttja agenternas åtkomst och privilegier och förvandla dem till oavsiktliga dubbelagenter. Precis som med mänskliga medarbetare kan en agent med för mycket åtkomst – eller fel instruktioner – bli en sårbarhet.

Hotet från dubbelagenter som kan utnyttjas om de lämnas utan kontroll, ges felaktiga behörigheter eller manipuleras av falska indata, är en verklig risk. Nyligen identifierade Microsofts Defender-teamet en falsk kampanj där flera aktörer utnyttjade en AI-attackmetod som kallas för ”minnesförgiftning” och som används för att manipulera AI-assistenternas minnen på ett ihållande sätt över tid, så att framtida svar kan styras och undergräva förtroendet för systemets trovärdighet.

I oberoende säker testbäddsforskning, som genomförts av Microsofts eget AI Red Team, dokumenterades hur agenter vilseleddes av bedrägliga gränssnittselement, t.ex. genom de leddes till att följa skadliga instruktioner inbäddade i vardagligt innehåll. Detta Red Team upptäckte också hur agenternas resonerande kunde omdirigeras på subtila sätt genom manipulerade uppgiftsformuleringar. Dessa insikter visar varför det är av yttersta vikt att företagen har full insyn i och kontroll över alla agenter som påverkar verksamheten, så att kontroller kan genomföras centralt och risker hanteras på ett integrerat sätt.
29 procent av anställda använder icke godkända AI-agenter för arbetsuppgifter, enligt en undersökning från 2025.
Enligt Microsofts Data Security Index rapporterar endast 47 % av organisationerna inom olika branscher att de implementerar specifika säkerhetskontroller för generativ AI,3 vilket visar på en tydlig möjlighet för organisationer att få den insyn som krävs för säker AI-användning. Ännu viktigare är att en multinationell undersökning av över 1 700 datasäkerhetsexperter, beställd av Microsoft från Hypothesis Group, visar att redan nu använder 29 % av de anställda ej godkända AI-agenter när de utför sina arbetsuppgifter.4
Cirkeldiagram som visar att endast 47 procent av organisationerna har implementerat säkerhetskontroller för användning av generativ AI.

När AI-användningen ökar – hur många ledare är då verkligen medvetna om de underliggande riskerna? Hur många ledare har full insyn i sin agentpopulation? Oövervakade eller ej styrda AI-agenter kan förvärra riskerna inom företaget – de kan hota säkerheten, affärskontinuiteten och varumärkets rykte, och det är sådant som hamnar direkt på IT-säkerhetschefens och ledningsgruppens bord. Detta är kärnan i dilemmat med cyberrisker. AI-agenterna öppnar nya möjligheter på arbetsplatserna och integreras alltmer i de interna processerna. Men agenter med riskfyllda beteenden kan förstärka de interna hoten och skapa nya felkällor för organisationer som inte är rustade för att hantera dem.

 

Detta är AI:ns dubbla natur: banbrytande innovation kombinerad med helt nya och omfattande risker.

Få ut mesta möjliga av dina AI-agenter

Ledande företag rider på AI-vågen i sin strävan att modernisera styrningen, minska onödig dataexponering och införa företagstäckande kontroller. De kombinerar detta med en förändrad kultur: affärsledarna äger kanske AI-strategin, medan IT- och säkerhetsteamen är verkliga partners när det gäller övervakning, styrning och säkert experimenterande. För dessa organisationer är säkringen av agenterna inte en begränsning – det är en konkurrensfördel, som bygger på att man behandlar AI-agenterna som människor och tillämpar samma nolltillitsprinciper.

Allt börjar med överskådlighet – du kan inte skydda det du inte ser, och du kan inte hantera det du inte förstår. Överskådlighet innebär en gemensam kontrollnivå över hela organisationen (IT, säkerhet, utvecklare och AI-team), vilket ger insikter i:

  • Vilka agenter som finns
     

  • Vem som äger dem
     

  • Vilka system och data de interagerar med
     

  • Hur de beter sig


 

Överskådligheten omfattar fem kärnområden:

  • Ett centraliserat register fungerar som en gemensam sanningskälla för alla agenter i organisationen – godkända agenter, tredjepartsagenter och framväxande skuggagenter. Den här inventeringen förhindrar ett överflöd av agenter, skapar ansvarstagande och underlättar upptäckt, samtidigt som ej godkända agenter kan begränsas eller isoleras vid behov.
  • Varje agent styrs med samma identitets- och policydrivna åtkomstkontroller som används för mänskliga användare och program. Minimala privilegier, som tillämpas konsekvent, säkerställer att agenterna endast får tillgång till de data, de system och de arbetsflöden som de behöver för sina uppgifter – varken mer eller mindre.
  • Instrumentpaneler och telemetri i realtid ger insikter om hur agenterna interagerar med människor, data och system. Ledare kan se var agenterna är aktiva, förstå beroenden och övervaka beteenden och påverkan – vilket gör det möjligt att upptäcka missbruk, avvikelser eller nya risker snabbare.
  • Agenter används på alla Microsoft-plattformar, open source-ramverk och tredjepartsekosystem enligt en enhetlig styrmodell. Denna samverkan gör att agenterna kan samarbeta med människor och andra agenter i arbetsflöden, samtidigt som de hanteras inom samma företagskontroller.
  • Agenterna skyddas från internt missbruk och externa hot med hjälp av inbyggda skydd. Säkerhetssignaler, policygenomförande och integrerade verktyg hjälper organisationerna att tidigt upptäcka komprometterande eller felaktigt konfigurerade agenter och agera snabbt – innan problemen eskalerar till affärs-, regelverks- eller anseenderisker.

Stäng gapet: En checklista för AI-styrning och säkerhet

Vägen mot att hantera AI-risker är tydlig: behandla AI-agenterna med samma noggrannhet som behandlar anställda eller programvarutjänster. Här är sju punkter att tänka på.
  • Dokumentera varje enskild agents syfte och ge den endast den åtkomst den behöver. Inga generella behörigheter.
  • Tillämpa dataskyddsregler även på AI-kanaler. Behåll granskningsspår och märk allt AI-genererat innehåll.
  • Erbjud säkra alternativ för att motverka skugg-AI. Blockera obehöriga appar.
  • Uppdatera kontinuitetsplaner för affärsverksamheten med AI-scenarier. Genomför övningar och följ upp mätvärden för överskådlighet vad gäller identitet, data och hot.
  • Bygg AI-styrning och självreglering redan nu – dokumentera träningsdata, bedöm partiskhet och etablera mänsklig övervakning inom juridik, data och säkerhet – så att regelefterlevnad integreras från början, och inte läggs till i efterhand.
  • Höj AI-risk till företagsnivå – skapa ledningsansvar, mätbara nyckeltal och synlighet på styrelsenivå, parallellt med finansiell och operativ riskhantering.
  • Utbilda medarbetare i säker AI-användning. Främja öppenhet och samarbete.

Organisationer som lyckas med AI-agenter är de som sätter överskådlighet, styrning och säkerhet i första rummet. Att uppnå detta kräver samarbete mellan alla team och full insyn i AI-agenter på alla nivåer i organisationen: IT-experter, säkerhetsteam, AI-specialister och utvecklare – allt hanterat och övervakat via en enhetlig central kontrollplattform.

Agent 365 är Microsofts samlade kontrollplattform för hantering av AI-agenter i en hel organisation. Den erbjuder ett centraliserat system på företagsnivå med vilket du kan registrera, styra, säkra, övervaka och driva AI-agenter – oavsett om de har skapats på Microsofts plattformar, i öppna källkodsramverk eller med tredjepartslösningar. Mer information om Microsofts produkter och tjänster som hjälper till med att skydda AI och agenter finns här.
Microsoft Security-resurskort som visar guider om AI-program, AI-styrning och AI-efterlevnad mot blå bakgrund
Guider för att skydda AI

Microsofts guider för skydd av det AI-baserade företaget

Få vägledning om hur du kan skapa en stabil grund för AI, bl.a. om hur du kan styra och skydda AI-program och säkerställa efterlevnad.

Fler resurser

En person arbetar vid en bärbar dator på en gemensam arbetsplats samtidigt som hen kontrollerar information på sin smartphone

Microsoft Data Security Index

Få insikter om hur generativ AI omformar datasäkerheten.
En presentatör står på en scen med skärmtexter som lyder: förstå riskerna, implementera rätt kontroller, mät och övervaka

Öka affärsmöjligheterna med betrodd AI

Lyssna på Microsoft-ledare som delar med sig av praktiska metoder om hur man skapar förtroende i varje enskilt steg i din AI-resa.
En blå och vit ikon som visar ett papper i ett kuvert med texten Ny.

Hämta CISO-sammandraget

Ligg steget före med expertinsikter, branschtrender och forskning om säkerhet med den här serien mejl två gånger i månaden.
  1. [1]
    Baserat på Microsofts egen telemetri som mäter agenter som skapats med Microsoft Copilot Studio eller Microsoft Agent Builder och som varit aktiva under de senaste 28 dagarna under november 2025.
  2. [2]
    Nyckeltal för branschagenter och regionala agenter skapades med hjälp av Microsofts egen telemetri som mäter agenter som skapats med Microsoft Copilot Studio eller Microsoft Agent Builder och som varit aktiva under de senaste 28 dagarna under november 2025.
  3. [3]
    En mångnationell undersökning från juli 2025 med över 1 700 datasäkerhetsexperter, beställd av Microsoft och genomförd av Hypothesis Group
  4. [4]

    Microsoft Data Security Index 2026: Att förena dataskydd och AI-innovation, Microsoft Security, 2026

     

    Metodik:

     

    Nyckeltal för branschagenter och regionala agenter skapades med hjälp av Microsofts egen telemetri som mäter agenter som skapats med Microsoft Copilot Studio eller Microsoft Agent Builder och som varit aktiva under de senaste 28 dagarna under november 2025.

     

    Data Security Index 2026:

     

    En 25 minuter lång multinationell onlineundersökning genomfördes mellan den 16 juli och den 11 augusti 2025 bland 1 725 ledare inom datasäkerhet.

     

    Frågorna fokuserade på datasäkerhet, incidenter, säkring av personalens användning av generativ AI, liksom användningen av generativ AI i datasäkerhetsprogram, så att jämförelser med 2024 kan lyftas fram.

     

    Entimmes djupintervjuer genomfördes med 10 datasäkerhetsledare i USA och Storbritannien i syfte att samla insikter om deras arbetssätt kring datasäkerhet.

     

    Definitioner:

     

    Aktiva agenter är 1) implementerade i produktion och 2) har haft någon form av ”verklig aktivitet” under de senaste 28 dagarna.

     

    Verklig aktivitet definieras som minst en interaktion med en användare (assistansagenter) ELLER minst 1 autonom körning (autonoma agenter).

Följ Microsoft Security