Af Eskil Sørensen, 11/03/24
Center for cybersikkerhed har i sin række af trusselsvurderinger udgivet en ny, som adresserer kunstig intelligens. Trusselsvurderingen udkom fredag den 8. marts og omhandler, hvordan generativ AI udnyttes af ondsindede ondsindede aktører og de potentialer for misbrug, som teknologien medfører.
Det fremgår af pressemeddelelsen, der følger udgivelsen, at AI ikke kan udføre cyberangreb uden menneskelig indblanding (endnu). Men angrebsprocesser kan effektiviseres ved brug af AI til at producere forholdsvis gamle angrebsmetoder som fx phishing-mails eller delkomponenter af ondsindet kode. På den måde er AI en teknologi, som kan supplere og styrke allerede kendte værktøjer til udførelse af cyberangreb.
Trusselsvurderingen giver et øjebliksbillede af hackernes brug af generativ AI og angiver, at det er meget sandsynligt, at generativ AI allerede i dag bliver brugt. Endnu, skriver CFCS, er det ikke entydigt hvor udbredt brugen af generativ AI er blandt ondsindede aktører, men der er et stort potentiale for, at teknologien kan blive misbrugt – eftersom området er i hastig udvikling, især i den brede, kommercielle tilgængelighed af tjenester, som eksempelvis ChatGPT.
Men, betoner CFCS. På trods af dette ændrer teknologien ikke den overordnede cybertrussel, som Danmark står overfor. Og den er som de fleste vil vide meget høj, hvilket er det højeste niveau.
’Generativ’ kommer af verbet ’at generere’, Ifølge Ordnet fra latin 'generare', dvs 'avle, frembringe', af genus 'slægt'. Generativ AI betyder således, at AI’en er tilvirkende, frembringede, udviklende osv. I dette tilfælde – hvilket trusselsvurderingen handler om – drejer det sig om. at kunstig intelligens bruges til at tilvirke aktiviteter, der kan understøtte trusselsaktørers cyberangreb. Altså et værktøj, som fx kan bruges til at effektivisere processen ift. cyberangreb eller gøre dem mere virksomme.
Links:
https://www.cfcs.dk/da/cybertruslen/trusselsvurderinger/hackere-misbruger-generativ-ai/