LLM’er finder nu 0‑dage i moden open source‑kode
Anthropic offentliggjorde i februar nye resultater om Claude Opus 4.6, som viser et skifte: moderne AI‑modeller kan allerede finde høj‑alvorlige 0‑dagssårbarheder i veltestede open source‑projekter – uden specialværktøjer. Det markerer, at LLM’er nu også fungerer som egentlige sårbarhedsjægere.
Fra fuzzing til målrettet kodeforståelse
Traditionelt har organisationer brugt fuzzere – værktøjer der bombarderer programmer med store mængder tilfældigt muteret input for at fremprovokere crashes. Fuzzing er effektivt til at finde memory corruption‑fejl, men kræver massiv CPU‑tid og specialbyggede testharnesses.
Opus 4.6 arbejder anderledes ifølge Antropic. I en virtuel maskine med kun standardværktøjer kan modellen:
- læse og forstå kode på samme måde som menneskelige researchere
- identificere kendte fejlmønstre og ufuldstændige tidligere fix
- prioritere de mest risikable kodeveje fremfor at brute‑force input
- generere præcise inputs, der udløser nedbrud
Anthropic har allerede valideret over 500 alvorlige sårbarheder i den høje ende, alle manuelt dobbeltchecket af mennesker og patch’et i samarbejde med maintainere – altså den gruppe der vedligeholder open source projekter.
Anthropic nævner i sin analyse tre eksempler på, hvor Claude har fundet sårbarheder:
- GhostScript: Modellen analyserede Git‑historikken, fandt et sikkerhedsrelateret commit og identificerede en lignende, men urettet kodevej. Resultatet blev en ny sårbarhed med proof‑of‑concept crash.
- OpenSC: Ved at søge efter klassisk farlige C‑funktioner fandt Claude en række strcat‑kald, der kunne udløse buffer overflow. Fuzzere ramte sjældent kodegrenen, men modellen kunne ræsonnere sig frem til risikoen.
- CGIF: I et GIF‑bibliotek forstod modellen, hvordan LZW‑komprimering fungerer, og konstruerede et input, der fik “komprimeret” data til at overstige bufferen – en fejl, der kræver konceptuel forståelse, ikke brute‑force.
Dual‑use og sikkerhedsforanstaltninger
For at imødegå misbrug har Anthropic indført nye mekanismer, bl.a. “probes”, der overvåger modelaktiviteter og kan blokere skadelig cyberbrug i realtid. Det kan ganske vist gøre det mere besværligt at gennemføre legitim sikkerhedsresearch, men sigter mod at forhindre direkte udvikling af exploits.
Anthropic konkluderer, hvad vi har talt om længe og også fået påvist i flere omgange: LLM’er bevæger sig hurtigt mod et niveau, hvor de kan finde sårbarheder hurtigere end menneskelige eksperter. Det vil presse disclosure‑praksis og tempoet i patch‑arbejde, men giver samtidig et potent defensivt værktøj. Det kræver dog, at organisationer når at bruge patchvinduet, før angriberne gør det.
Grundlagt af tidligere OpenAI-medarbejdere
Hvad er Anthropic for en størrelse?
Anthropic er en amerikansk AI‑virksomhed, grundlagt af tidligere OpenAI‑medarbejdere i 2021. De er mest kendt for deres store sprogmodeller under navnet Claude – herunder Claude Opus‑serien. Virksomheden har vundet stor udbredelse i erhvervslivet, især i USA
Ifølge egen omtale har Anthropic fokus på sikre og kontrollerbare modeller, udvikler Claude‑modellerne, som konkurrerer med GPT‑ og Gemini‑modeller, positionerer sig som særligt optaget af sikkerhed, “alignment” og risikostyring. Konkret handler det om, hvordan LLM’er kan finde sårbarheder, hvordan man forhindrer misbrug af modeller og hvordan AI kan støtte defensive sikkerhedsteam.