Ansigtsgenkendelse. Selvkørende biler. Diagnosticering af patienters sygdomme.
Tre eksempler på områder, hvor kunstig intelligens indgår. Teknologien kan løse problemer på nye måder og åbne for nye muligheder. Men den medfører også sikkerhedsmæssige udfordringer.
Jeg mener, vi bør betragte kunstig intelligens og sikkerhed fra to vinkler: Angriberens og forsvarerens.
Angriberen kan være en it-kriminel, der er ude efter penge eller fortrolige oplysninger. For en angriber indebærer kunstig intelligens mindst tre muligheder.
For det første kan traditionelle typer af angreb forstærkes og forbedres med kunstig intelligens.
Et eksempel kan være målrettet svindel, såkaldt spearphishing. En angriber kan bruge machine learning til at analysere potentielle ofres opførsel.
Når et offer klikker på et link til en forfalsket login-side, bruger systemet den viden til at forbedre sin indsats:
Det bliver klogere på, hvad der skal til for at lokke folk i fælden. For det andet kan de kriminelle angribe kunstig intelligens-systemer hos deres ofre.
Det kan eksempelvis ske ved at forgifte de data, der indgår i modellerne til machine learning. Den type systemer lærer ved at blive præsenteret for store mængder data.
For eksempel kan et system lære at genkende et billede af et får ved at se en masse billeder af får.
Men hvis en angriber har held til at smide en bunke billeder af ulve ind i datasættet, bliver modellen forvirret, så den ikke længere kan genkende et får.
Den tredje mulighed for angribere går ud på at stjæle den værdi, som indgår i systemerne med kunstig intelligens. Det kan for eksempel være hele den model, som en virksomhed anvender til at vurdere værdipapirer med.
Dermed kan angriberen udnytte virksomhedens viden til at score kassen på børsspekulationer.
Analyse af trafikdata
Og nej, angreb med og på systemer med kunstig intelligens er ikke noget fundamentalt nyt sikkerhedsmæssigt.
Vores opgave som sikkerhedsfolk er fortsat at sikre informationernes tilgængelighed, fortrolighed og autenticitet.
Men der kan blive brug for nye værktøjer til at beskytte de nye typer systemer.
Et af de værktøjer kan være – kunstig intelligens.
I DKCERT undersøger vi således mulighederne i at bruge machine learning til at analysere netværksdata. Vi har adgang til metadata om den trafik, der går gennem de centrale routere i forskningsnettet.
Ved at hente de data ind i et paralleliseret big data-system kan vi analysere dem. Vores plan er at opbygge et system, der lærer at genkende trafikmønstre, som vi er interesserede i.
Machine learning kan gøre det muligt at se angrebsmønstre, som ellers kan være svære at opdage. Dermed vil vi hurtigere kunne opdage og standse angrebsforsøg.
Måske vil teknologien ligefrem kunne hjælpe os med at forudsige fremtiden: Ud fra data om tidligere angreb kan vi forudse kommende angreb.
Styrker password-sikkerhed
Machine learning kan også gøre autentifikation af brugere mere sikker. Traditionelt har vi stolet på kombinationen af et brugernavn og et password.
Men erfaringen viser, at den kombination ikke er stærk nok: Brugere genbruger passwords på tværs af tjenester eller vælger svage passwords, der er lette at gætte.
Her kan machine learning komme ind: Autentifikationssystemet nøjes ikke med at tjekke, om brugernavn og password passer sammen. Det ser også på, om login-proceduren ser rigtig ud:
Plejer brugeren at logge ind fra dette netværk med denne enhed på denne geografiske placering? Er der mange fejlslagne forsøg? Er klokken tre om natten – og er det normalt for brugeren?
Hvis systemet synes, noget virker tvivlsomt, kan det stille krav om ekstra sikkerhed, for eksempel via to-faktor-autentifikation.
Kig på teknologien
Hvis jeres organisation anvender kunstig intelligens-teknologier, bør I overveje, hvilke særlige krav det stiller til sikkerhedssystemerne.
Uanset om I bruger kunstig intelligens, kan jeg anbefale at tage teknologien med i overvejelserne, når I planlægger fremtidens sikkerhed.
Kunstig intelligens kan øge truslerne mod jeres informationer. Men den kan også forbedre sikkerheden, hvis den bruges rigtigt.
Oprindelig bragt på Computerworld Online den 26. april 2018