
AI-agenter kan bli lurade – och deras hot växer
2025-04-04
Författare: Elias
Den senaste trenden inom generativ AI handlar om självständiga agenter som snabbt blir en vanlig syn i företagsvärlden. Dessa AI-agenter, som kan agera på egen hand, används för att effektivisera processer genom API:er och integrering i befintliga system. En ökning av användningen spås av IDC, som förutspår att 40 procent av företagen inom de 2000 största globala företag kommer att använda AI-agenter för att automatisera kunskapsarbete inom tre år.
Gartner Research förutspår en ännu snabbare spridning: 60 procent av operativa IT-verktyg kommer att ha AI-agenter integrerade senast 2028. Den potentiella försäljningen av agentisk AI kan nå hisnande 609 miljarder dollar på fem år, vilket visar på den explosiva tillväxten av teknologin.
Men denna snabba utveckling medför risker. Precis som mänskliga medarbetare kan AI-agenter utnyttjas och manipuleras. Det har rapporterats att AI-drivna botar inom kundtjänst har blivit lurade att överföra pengar eller lämna ut känsliga uppgifter. Det finns även risker för finansiella AI-agenter, som kan utsättas för hacking om de inte är tillräckligt skyddade.
Ett chockerande exempel inträffade nyligen där en kryptovalutaanvändare lyckades lura en AI-agent, Freysa, att överföra 50 000 dollar. Agenten hade integrerats med Base-blockkedjan som hanterar kryptovalutor, vilket visar på faran i att dessa teknologier är responserbara.
Även om missbruk av AI-agenter fortfarande är begränsat, varnar analytiker för att tekniken är ung och att dess sårbarheter kan utnyttjas. Avivah Litan från Gartner framhäver att det finns många oidentifierade risker kopplade till AI-agenter, som kan användas i cyberbrott. Denna situation kan leda till ett "AI-uppvaknande", där cyberkriminella lär sig manipulera agenter för att skapa intrång och stjäla data.
Med AI-agenter som innebär en ny form av mjukvara, är det avgörande för företag att implementera starka säkerhetsåtgärder. Att ge AI för stora privilegier kan leda till allvarliga konsekvenser, inklusive datastölder och andra brott. Därför bör organisationer ha strikta kontrollpolicys och övervaka agenternas beteende för att förhindra oönskade händelser.
För att säkerställa en säker och effektiv användning av agentisk AI, krävs tydliga regler och strukturer. Det är viktigt att medarbetare får utbildning i hur man arbetar med dessa teknologier för att både maximera deras potential och minimera riskerna.
Experter poängterar att om AI-agenter designas och övervakas korrekt kan de istället användas för att förstärka säkerheten genom att reagera på hot. Framväxten av så kallade "guardian agents" kan komma att bli en nyckelkomponent i skyddet av agentisk AI, eftersom de övervakar och analyserar agenternas aktiviteter i realtid. Denna teknik är i sin linda, och det är tydligt att vi fortfarande befinner oss i en period av experimentation och utveckling.
Sammanfattningsvis är det angeläget att företag hanterar och respekterar AI-agenternas kapacitet, samtidigt som man är medveten om de risker som de medför. Om inte rätt åtgärder vidtas kan AI-agenternas framtid istället för att vara en väg till innovation leda till ökad osäkerhet och potentiell skada.