Statsstøttede hackergrupper udnytter AI i cyberoperationer

Eskil Sørensen
02.03.2025 14:17
Google: Over 57 trusselsaktører fra Kina, Iran, Nordkorea og Rusland anvender kunstig intelligens til at styrke deres cyber- og informationsoperationer.

Det er ikke kun én ondsindet AI, der udnyttes af hackergrupper, men mange. Som vi skrev i sidste uge, var der observeret en AI chatbot ved navn GhostGPT, hvis abonnementstjeneste var til salg på Darkweb. En bot, som kan hjælpe kriminelle med at udvikle bl.a. phishingaktiviteter. 

Nu er det kommet for en dag, hvad de fleste sikkert havde forudset allerede, at statsstøttede hackergrupper bruger AI-værktøjer som fx. Gemini for at forbedre forskellige faser af deres angrebscyklus. Det omfatter bl.a. kodning, udvikling af skadelige programmer, informationsindsamling om potentielle mål og undgåelse af opdagelse efter kompromittering.

Det skriver The Hacker News på baggrund af en rapport fra Googles Threat Intelligence Group (GTIG). 

Iranske aktører fører an i AI-brug

Angiveligt skal iranske APT-grupper, især APT42, være blandt de mest aktive brugere af AI. Gruppen bruger AI til at udforme phishing-kampagner, udføre rekognoscering mod forsvarseksperter og organisationer samt generere indhold med cybersikkerhedstemaer. APT42 har tidligere infiltreret netværk ved at udgive sig for journalister og eventarrangører.

Også kinesiske APT-grupper anvender AI, men de fokuserer på at udføre rekognoscering, fejlfinde kode og finde metoder til dybere infiltration i offerets netværk. Blandt teknikerne skal være lateral movement, privilegieeskalering, dataeksfiltrering og forsøg på at undgå at blive opdaget. 

Russiske APT-aktører har derimod brugt AI til at omskrive offentlig tilgængelig malware til andre programmeringssprog og tilføje krypteringslag til eksisterende kode, mens nordkoreanske grupper har brugt AI til at undersøge infrastruktur og hostingudbydere samt til at udarbejde ansøgninger og følgebreve med henblik på at placere hemmelige IT-medarbejdere i vestlige virksomheder.

Så det lader til at de fire lande har hver deres fokusområde og måske er i gang med en form for specialisering.

Udvikling af ondsindede AI-værktøjer

Der er ifølge The Hacker News også observeret undergrundsfora, hvor der reklameres for modificerede versioner af store sprogmodeller, der ikke har sikkerheds- eller etiske begrænsninger. Eksempler på dette skal være WormGPT, WolfGPT og FraudGPT, der er udviklet til at skabe personlige phishing-e-mails, skabeloner til direktørsvindel/business email compromise (BEC)-angreb og design af falske websites. 

Så AI er vitterlig et værktøj for de mange.

Information