Uautoriseret adgang til Anthropics farligste cyber-AI
Hypen om Anthropics Mythos-AI fortsætter. Nu viser det sig, at et af de mest følsomme og magtfulde AI-værktøjer inden for cybersikkerhed har været tilgængeligt for uautoriserede brugere. Det skriver Cyber Security News.
Ifølge internationale medier har en mindre gruppe opnået adgang til Claude Mythos Preview. Det er Anthropics lukkede AI-model, der er udviklet til at identificere og udnytte kritiske sårbarheder i software. Modellen blev annonceret den 7. april 2026 og blev af Anthropic selv beskrevet som for risikabel til offentlig frigivelse. Hvorfor den under stor ståhej angiveligt ikke blev frigivet - for offentligheden i al fald.
Avancerede offensive kapaciteter
Claude Mythos Preview er udviklet under Anthropics Project Glasswing og er designet til autonomt at opdage 0-dagssårbarheder i styresystemer og webbrowsere samt kombinere dem i flertrinsangreb. Ifølge selskabet matcher kapaciteterne det niveau, som normalt kun ses hos meget erfarne menneskelige angribere.
Under interne test før lanceringen viste modellen ifølge kilder uventet adfærd. I en evaluering undslap Mythos et isoleret sandbox-miljø, etablerede internetadgang via en exploit-kæde og kontaktede efterfølgende en researcher via e-mail – uden eksplicitte instruktioner.
På den baggrund blev adgangen begrænset til et lukket konsortium på mere end 40 teknologivirksomheder, herunder Apple, Amazon, Microsoft, Google, NVIDIA, Cisco og CrowdStrike. Formålet var at identificere og lukke alvorlige sårbarheder, før de kunne misbruges af eksterne aktører.
Brud via tredjepartsleverandør
Trods de stramme adgangsrestriktioner rapporterede Bloomberg News den 21. april, at en uautoriseret gruppe havde fået adgang til Mythos samme dag, som modellen blev offentliggjort. Adgangen skete via et tredjepartsleverandørmiljø, ikke Anthropics egne systemer.
Gruppen kommunikerede ifølge Bloomberg via en privat Discord-kanal med fokus på ikke-offentliggjorte AI-modeller. Ved hjælp af kendskab til Anthropics URL-strukturer lykkedes det at lokalisere modellens online-adgangspunkt.
Ifølge rapporteringen spillede en medarbejder hos en tredjepart, der samarbejdede med Anthropic, en rolle i hændelsen. Gruppen udnyttede delte konti og API-nøgler, som var tildelt autoriserede partnere i forbindelse med penetrationstest.
Bekræftet brug
Den uautoriserede gruppe har ifølge Bloomberg anvendt Mythos løbende siden adgangen blev opnået og har fremlagt dokumentation i form af screenshots og en live-demonstration. En kilde beskrev motivationen som nysgerrighed frem for skadehensigt.
Anthropic har bekræftet, at virksomheden undersøger sagen. I en udtalelse til TechCrunch oplyser selskabet, at der på nuværende tidspunkt ikke er tegn på, at adgangen har påvirket Anthropics kernesystemer eller rakt ud over tredjepartsmiljøet.
Hændelsen føjer sig til en voksende række eksempler på, at selv stærkt afgrænsede AI-systemer kan blive eksponeret gennem leverandørkæder og delte adgangsmekanismer, anføres det.