Første del af EU’s AI-forordning trådt i kraft

Eskil Sørensen
02.25.2025 14:48
Forbud mod visse AI-systemer og nye krav til organisationers AI-kompetencer gælder fra primo februar.

Den 2. februar 2025 trådte de første regler i EU’s AI-forordning officielt i kraft. De nye regler indebærer blandt andet et forbud mod AI-systemer, der udgør en "uacceptabel risiko" eller sagt med andre ord: at de udgør en klar trussel mod sikkerhed, borgernes rettigheder eller menneskelig værdighed. Et andet krav, der også gælder fra 2. februar er, at virksomheder og offentlige myndigheder skal sikre "tilstrækkelig" AI-kompetence blandt deres medarbejdere.

Forordningen blev vedtaget i august 2024, og den er verdens første omfattende regulering af kunstig intelligens. Formålet er, at den skal sikre en ansvarlig udvikling og anvendelse af AI i Europa.

Hvilke AI-systemer bliver nu forbudt?

Som en del af de første regler, der altså trådte i kraft forbyder EU en række AI-systemer, der anses for at være særligt skadelige. Det omfatter blandt andet:

  • Manipulerende AI-teknologier: Systemer, der udnytter sårbarheder hos mennesker for at ændre adfærd på en skadelig måde.
  • Social scoring: AI-baserede vurderingssystemer, der rangerer borgere efter adfærd, økonomi eller andre personlige faktorer, som de fx kendes fra Kinas social credit-system.
  • Biometrisk kategorisering baseret på følsomme data: AI, der klassificerer personer efter race, religion eller politiske holdninger.
  • Masseovervågning uden retsgrundlag: Brugen af AI-drevne overvågningssystemer, der konstant sporer og identificerer individer på offentlige steder.

Nye krav til AI-kompetencer i organisationer

En anden central del af de regler, der trådte i kraft, er kravet om, at organisationer skal sikre, at medarbejdere har tilstrækkelig viden om AI.

Det betyder blandt andet, at virksomheder og offentlige institutioner, der anvender AI i beslutningsprocesser, skal:

  • Gennemføre AI-uddannelse og træning for relevante medarbejdere.
  • Sikre gennemsigtighed i brugen af AI, så både medarbejdere og borgere forstår, hvordan teknologien anvendes.
  • Implementere interne retningslinjer for AI-etik og ansvarlig brug.

Dette krav er afgørende for at undgå uforudsete konsekvenser ved AI-beslutninger, især i sektorer som sundhed, finans og den offentlige forvaltning.

I Danmark har Digitaliseringsstyrelsen udarbejdet vejledninger for at hjælpe organisationer med at overholde de nye regler. Fra Digitaliseringsstyrelsens hjemmeside findes i øvrigt fine introduktioner og læringsværktøjer til forståelse af AI.

 

Information