Search for a command to run...
(Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797 og (EU) 2020/1828 (forordningen om kunstig intelligens) (EØS-relevant tekst))
1. Formålet med denne forordning er at forbedre det indre markeds funktion og fremme udbredelsen af menneskecentreret og troværdig kunstig intelligens (AI) og samtidig sikre et højt niveau af beskyttelse af sundhed, sikkerhed og de grundlæggende rettigheder, der er nedfældet i chartret, herunder demokratiet, retsstatsprincippet og miljøbeskyttelse, mod de skadelige virkninger af AI-systemer i Unionen og støtte innovation.
2. Ved denne forordning fastsættes:
a) harmoniserede regler for omsætning, ibrugtagning og anvendelse af AI-systemer i Unionen
b) forbud mod visse former for AI-praksis
c) specifikke krav til højrisiko-AI-systemer og forpligtelser for operatører af sådanne systemer
d) harmoniserede gennemsigtighedsregler for bestemte AI-systemer
e) harmoniserede regler for omsætning af AI-modeller til almen brug
f) regler om overvågning efter omsætningen, markedsovervågning, forvaltning og håndhævelse
g) foranstaltninger til støtte for innovation med særligt fokus på SMV'er, herunder iværksættervirksomheder.
1. Denne forordning finder anvendelse på:
a) udbydere, der bringer AI-systemer i omsætning eller ibrugtager sådanne eller bringer AI-modeller til almen brug i omsætning i Unionen, uanset om disse udbydere er etableret eller befinder sig i Unionen eller i et tredjeland
b) idriftsættere af AI-systemer, der er etableret eller befinder sig i Unionen
c) udbydere og idriftsættere af AI-systemer, der er etableret eller befinder sig i et tredjeland, hvis det output, der produceres af systemet, anvendes i Unionen
d) importører og distributører af AI-systemer
e) producenter af et produkt, der sammen med deres produkt og under eget navn eller varemærke bringer et AI-system i omsætning eller ibrugtager det
f) bemyndigede repræsentanter for udbydere, der ikke er etableret i Unionen
g) berørte personer, der befinder sig i Unionen.
2. For så vidt angår AI-systemer, der er klassificeret som højrisiko-AI-systemer i overensstemmelse med artikel 6, stk. 1, i forbindelse med produkter, der er omfattet af EU-harmoniseringslovgivningen opført i bilag I, afsnit B, finder kun artikel 6, stk. 1, og artikel 102-109 og 112 anvendelse. Artikel 57 finder kun anvendelse, for så vidt kravene til højrisiko-AI-systemer i henhold til denne forordning er blevet integreret i den pågældende EU-harmoniseringslovgivning.
3. Denne forordning finder ikke anvendelse på områder, der falder uden for EU-rettens anvendelsesområde, og berører under alle omstændigheder ikke medlemsstaternes kompetencer vedrørende national sikkerhed, uanset hvilken type enhed medlemsstaterne har bemyndiget til at udføre opgaver i forbindelse med disse kompetencer.
Denne forordning finder ikke anvendelse på AI-systemer, hvis og i det omfang de bringes i omsætning, ibrugtages eller anvendes med eller uden ændring til formål, der udelukkende vedrører militær, forsvar eller national sikkerhed, uanset hvilken type enhed der udfører disse aktiviteter.
Denne forordning finder ikke anvendelse på AI-systemer, der ikke bringes i omsætning eller ibrugtages i Unionen, hvis outputtet anvendes i Unionen til formål, der udelukkende vedrører militær, forsvar eller national sikkerhed, uanset hvilken type enhed der udfører disse aktiviteter.
4. Denne forordning finder hverken anvendelse på offentlige myndigheder i tredjelande eller internationale organisationer, der er omfattet af denne forordnings anvendelsesområde, jf. stk. 1, hvis disse myndigheder eller organisationer anvender AI-systemer inden for rammerne af internationalt samarbejde eller internationale aftaler om retshåndhævelse og retligt samarbejde med Unionen eller med en eller flere medlemsstater, forudsat at et sådant tredjeland eller en sådan international organisation træffer tilstrækkelige sikkerhedsforanstaltninger med hensyn til beskyttelsen af fysiske personers grundlæggende rettigheder og friheder.
5. Denne forordning berører ikke anvendelsen af bestemmelserne om udbydere af formidlingstjenesters ansvar som fastsat i kapitel II i forordning (EU) 2022/2065.
6. Denne forordning finder ikke anvendelse på AI-systemer eller AI-modeller, herunder deres output, som specifikt er udviklet og ibrugtaget udelukkende med henblik på videnskabelig forskning og udvikling.
7. EU-retten om beskyttelse af personoplysninger, privatlivets fred og kommunikationshemmeligheden finder anvendelse på personoplysninger, som behandles i forbindelse med de rettigheder og forpligtelser, der er fastsat i denne forordning. Denne forordning berører ikke forordning (EU) 2016/679 eller (EU) 2018/1725 eller direktiv 2002/58/EF eller (EU) 2016/680, uden at det berører nærværende forordnings artikel 10, stk. 5, og artikel 59.
8. Denne forordning finder ikke anvendelse på forsknings-, afprøvnings- eller udviklingsaktiviteter vedrørende AI-systemer eller AI-modeller, inden de bringes i omsætning eller ibrugtages. Sådanne aktiviteter gennemføres i overensstemmelse med gældende EU-ret. Afprøvning under faktiske forhold er ikke omfattet af denne undtagelse.
9. Denne forordning berører ikke de regler, der er fastsat i andre EU-retsakter vedrørende forbrugerbeskyttelse og produktsikkerhed.
10. Denne forordning finder ikke anvendelse på forpligtelser for idriftsættere, som er fysiske personer, der anvender AI-systemer som led i rent personlige ikkeerhvervsmæssige aktiviteter.
11. Denne forordning er ikke til hinder for, at Unionen eller medlemsstaterne opretholder eller indfører love, forskrifter eller administrative bestemmelser, der er gunstigere for arbejdstagerne med hensyn til beskyttelse af deres rettigheder i forbindelse med arbejdsgivernes anvendelse af AI-systemer, eller tilskynder til eller tillader anvendelse af kollektive overenskomster, der er gunstigere for arbejdstagerne.
12. Denne forordning finder ikke anvendelse på AI-systemer, der frigives i henhold til gratis open source-licenser, medmindre de bringes i omsætning eller ibrugtages som højrisiko-AI-systemer eller et AI-system, der er omfattet af artikel 5 eller 50.
I denne forordning forstås ved:
1) »AI-system«: et maskinbaseret system, som er udformet med henblik på at fungere med en varierende grad af autonomi, og som efter idriftsættelsen kan udvise en tilpasningsevne, og som til eksplicitte eller implicitte mål af det input, det modtager, udleder, hvordan det kan generere output såsom forudsigelser, indhold, anbefalinger eller beslutninger, som kan påvirke fysiske eller virtuelle miljøer
2) »risiko«: kombinationen af sandsynligheden for, at der opstår en skade, og den pågældende skades alvor
3) »udbyder«: en fysisk eller juridisk person, en offentlig myndighed, et agentur eller et andet organ, der udvikler eller får udviklet et AI-system eller en AI-model til almen brug og bringer dem i omsætning eller ibrugtager AI-systemet under eget navn eller varemærke, enten mod betaling eller gratis
4) »idriftsætter«: en fysisk eller juridisk person, en offentlig myndighed, et agentur eller et andet organ, der anvender et AI-system under sin myndighed, medmindre AI-systemet anvendes som led i en personlig ikkeerhvervsmæssig aktivitet
5) »bemyndiget repræsentant«: en fysisk eller juridisk person, der befinder sig eller er etableret i Unionen, og som har modtaget og accepteret et skriftligt mandat fra en udbyder af et AI-system eller en AI-model til almen brug til på dennes vegne at opfylde og udføre de forpligtelser og procedurer, der er fastsat i denne forordning
6) »importør«: en fysisk eller juridisk person, som befinder sig eller er etableret i Unionen, og som bringer et AI-system i omsætning, der bærer en i et tredjeland etableret fysisk eller juridisk persons navn eller varemærke
7) »distributør«: en fysisk eller juridisk person i forsyningskæden, bortset fra udbyderen eller importøren, som gør et AI-system tilgængeligt på EU-markedet
8) »operatør«: en udbyder, producent af et produkt, idriftsætter, bemyndiget repræsentant, importør eller distributør
Udbydere og idriftsættere af AI-systemer træffer foranstaltninger til i videst muligt omfang at sikre et tilstrækkeligt niveau af AI-færdigheder hos deres personale og andre personer, der er involveret i drift og anvendelse af AI-systemer på deres vegne, og tager herved hensyn til disse personers tekniske viden, erfaring og uddannelse og den kontekst, hvori AI-systemerne skal anvendes, og de personer eller grupper af personer, som AI-systemerne skal anvendes på.
1. Følgende former for AI-praksis er forbudt:
a) omsætning, ibrugtagning eller anvendelse af et AI-system, der anvender subliminale teknikker, der rækker ud over den menneskelige bevidsthed, eller bevidst manipulerende eller vildledende teknikker med henblik på eller med det resultat i væsentlig grad at fordreje en persons eller en gruppe af personers adfærd ved betydeligt at hæmme dennes evne til at træffe informerede beslutninger, hvilket får dem til at træffe en beslutning, som de ellers ikke ville have truffet, på en måde, der forvolder eller med rimelig sandsynlighed vil forvolde den pågældende person, en anden person eller en gruppe af personer betydelig skade
b) omsætning, ibrugtagning eller anvendelse af et AI-system, der hos en fysisk person eller en specifik gruppe af personer udnytter sårbarheder på grundlag af alder, handicap eller en særlig social eller økonomisk situation med henblik på eller med det resultat i væsentlig grad at fordreje den pågældende persons eller en til gruppen hørende persons adfærd på en måde, der forvolder eller med rimelig sandsynlighed vil forvolde den pågældende person eller en anden person betydelig skade
c) omsætning, ibrugtagning eller anvendelse af AI-systemer til evaluering eller klassificering af fysiske personer eller grupper af personer over en given periode på grundlag af deres sociale adfærd eller kendte, udledte eller forudsagte personlige egenskaber eller personlighedstræk, således at den sociale bedømmelse fører til et af eller begge følgende udfald:
i) skadelig eller ugunstig behandling af visse fysiske personer eller grupper af personer i sociale sammenhænge, som ikke har noget at gøre med de sammenhænge, i hvilke dataene oprindeligt blev genereret eller indsamlet
ii) skadelig eller ugunstig behandling af visse fysiske personer eller grupper af personer, som er uberettiget eller uforholdsmæssig i forhold til deres sociale adfærd eller betydningen heraf
d) omsætning, ibrugtagning til dette specifikke formål eller anvendelse af et AI-system til at foretage risikovurderinger af fysiske personer for at vurdere eller forudsige risikoen for, at en fysisk person begår en strafbar handling, hvilket alene er baseret på profilering af en fysisk person eller en vurdering af deres personlighedstræk og personlige egenskaber; dette forbud finder ikke anvendelse på AI-systemer, der anvendes til at understøtte den menneskelige vurdering af en persons involvering i en kriminel aktivitet, som allerede er baseret på objektive og verificerbare kendsgerninger, der er direkte knyttet til en kriminel aktivitet
1. Uanset om et AI-system bringes i omsætning eller ibrugtages uafhængigt af de i litra a) og b) omhandlede produkter, betragtes AI-systemet som højrisiko, hvis begge følgende betingelser er opfyldt:
a) AI-systemet tilsigtes anvendt som en sikkerhedskomponent i et produkt, eller AI-systemet er i sig selv et produkt, der er omfattet af den EU-harmoniseringslovgivning, der er anført i bilag I.
b) Det produkt, hvis sikkerhedskomponent i henhold til litra a) er AI-systemet, eller AI-systemet selv som et produkt skal underkastes en overensstemmelsesvurdering foretaget af en tredjepart med henblik på omsætning eller ibrugtagning af produktet i henhold til den EU-harmoniseringslovgivning, der er anført i bilag I.
2. Ud over de højrisiko-AI-systemer, der er omhandlet i stk. 1, betragtes de AI-systemer, der er omhandlet i bilag III, også som højrisiko.
3. Uanset stk. 2 betragtes et AI-system, der er omhandlet i bilag III, ikke som højrisiko, hvis det ikke udgør en væsentlig risiko for skade på sundheden, sikkerheden eller fysiske personers grundlæggende rettigheder, herunder ved ikke i væsentlig grad at påvirke resultatet af beslutningstagning.
Første afsnit finder anvendelse, hvis enhver af følgende betingelser er opfyldt:
a) AI-systemet tilsigtes at udføre en snæver proceduremæssig opgave
b) AI-systemet tilsigtes at forbedre resultatet af en tidligere afsluttet menneskelig aktivitet
c) AI-systemet tilsigtes at påvise beslutningsmønstre eller afvigelser fra tidligere beslutningsmønstre og er ikke tiltænkt at skulle erstatte eller påvirke en tidligere afsluttet menneskelig vurdering uden en ordentlig menneskelig gennemgang, eller
d) AI-systemet tilsigtes at udføre en forberedende opgave inden en vurdering, der er relevant for de anvendelsestilfælde, der er anført i bilag III.
Uanset første afsnit betragtes et AI-system, der er omhandlet i bilag III, altid som højrisiko, hvis AI-systemet udfører profilering af fysiske personer.
4. En udbyder, som finder, at et AI-system, der er omhandlet i bilag III, ikke er højrisiko, skal dokumentere sin vurdering, inden det pågældende system bringes i omsætning eller ibrugtages. En sådan udbyder er underlagt registreringsforpligtelsen i artikel 49, stk. 2. Efter anmodning fra de nationale kompetente myndigheder fremlægger udbyderen dokumentation for vurderingen.
1. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre bilag III ved at tilføje eller ændre anvendelsestilfælde af højrisiko-AI-systemer, hvis begge følgende betingelser er opfyldt:
a) AI-systemerne tilsigtes anvendt på et af de områder, der er anført i bilag III
b) AI-systemerne udgør en risiko for skade på sundheden og sikkerheden eller for negativ indvirkning på de grundlæggende rettigheder, og denne risiko svarer til eller er større end risikoen for skade eller negativ indvirkning ved de højrisiko-AI-systemer, der allerede er omhandlet i bilag III.
2. Ved vurderingen af betingelsen i henhold til stk. 1, litra b), tager Kommissionen hensyn til følgende kriterier:
a) det tilsigtede formål med AI-systemet
b) i hvilket omfang et AI-system er blevet anvendt eller sandsynligvis vil blive anvendt
c) arten og omfanget af de data, der behandles og anvendes af AI-systemet, navnlig om der behandles særlige kategorier af personoplysninger
d) i hvilket omfang AI-systemet handler autonomt, og muligheden for at et menneske kan underkende en afgørelse eller anbefalinger, som kan føre til potentiel skade
e) i hvilket omfang anvendelsen af et AI-system allerede har forvoldt skade på sundheden og sikkerheden, har haft negativ indvirkning på de grundlæggende rettigheder eller har skabt betydelig bekymring med hensyn til sandsynligheden for en sådan skade eller negativ indvirkning som påvist i f.eks. rapporter eller dokumenterede påstande, der er forelagt for de nationale kompetente myndigheder, eller i andre rapporter, alt efter hvad der er relevant
f) det potentielle omfang af en sådan skade eller negativ indvirkning, navnlig med hensyn til dens størrelse og dens mulighed for påvirkning af flere personer eller for uforholdsmæssig påvirkning af en særlig gruppe af personer
1. Højrisiko-AI-systemer skal overholde de krav, der er fastsat i denne afdeling, under hensyntagen til deres tilsigtede formål og det generelt anerkendte aktuelle teknologiske niveau for AI og AI-relaterede teknologier. Ved sikringen af, at disse krav overholdes, tages det risikostyringssystem, der er omhandlet i artikel 9, i betragtning.
2. Hvis et produkt indeholder et AI-system, som kravene i denne forordning samt kravene i den EU-harmoniseringslovgivning, der er anført i bilag I, afsnit A, finder anvendelse på, er producenterne ansvarlige for at sikre, at deres produkt fuldt ud overholder alle gældende krav i den gældende EU-harmoniseringslovgivning. For at sikre at de højrisiko-AI-systemer, der er omhandlet i stk. 1, overholder kravene i denne afdeling, og for at sikre sammenhæng, undgå overlap og minimere yderligere byrder skal udbyderne have mulighed for i relevant omfang at integrere de nødvendige afprøvnings- og rapporteringsprocesser, oplysninger og den nødvendige dokumentation, som de stiller til rådighed vedrørende deres produkt, i dokumentation og procedurer, der allerede eksisterer og kræves i henhold til den EU-harmoniseringslovgivning, der er anført i bilag I, afsnit A.
1. Hvad angår højrisiko-AI-systemer oprettes og gennemføres der et risikostyringssystem, som dokumenteres og vedligeholdes.
2. Risikostyringssystemet skal forstås som en kontinuerlig iterativ proces, der er planlagt og løber i hele højrisiko-AI-systemets livscyklus, og som kræver regelmæssig systematisk gennemgang og opdatering. Det omfatter følgende trin:
a) kortlægning og analyse af kendte og med rimelighed forudsigelige risici, som højrisiko-AI-systemet kan udgøre for sundheden, sikkerheden eller de grundlæggende rettigheder, når højrisiko-AI-systemet anvendes i overensstemmelse med dets tilsigtede formål
b) vurdering og evaluering af de risici, der kan opstå, når højrisiko-AI-systemet anvendes i overensstemmelse med dets tilsigtede formål og ved fejlanvendelse, der med rimelighed kan forudses
c) evaluering af andre risici, der kan opstå, på grundlag af analyse af data indsamlet fra systemet til overvågning efter omsætningen, jf. artikel 72
d) vedtagelse af passende og målrettede risikostyringsforanstaltninger, der har til formål at imødegå de risici, der er identificeret i henhold til litra a).
3. De i denne artikel omhandlede risici vedrører kun dem, der med rimelighed kan afbødes eller fjernes gennem udviklingen eller udformningen af højrisiko-AI-systemet eller tilvejebringelsen af tilstrækkelige tekniske oplysninger.
4. De i stk. 2, litra d), omhandlede risikostyringsforanstaltninger tager behørigt hensyn til virkningerne og eventuelle interaktioner som følge af den kombinerede anvendelse af kravene i denne afdeling med henblik på at minimere risiciene mere effektivt og samtidig opnå en passende balance i gennemførelsen af foranstaltningerne til opfyldelse af disse krav.
5. De i stk. 2, litra d), omhandlede risikostyringsforanstaltninger er af en sådan art, at de relevante resterende risici, der er forbundet med hver fare, samt den samlede resterende risiko ved højrisiko-AI-systemerne vurderes at være acceptabel.
I fastlæggelsen af de mest hensigtsmæssige risikostyringsforanstaltninger sikres følgende:
a) fjernelse eller begrænsning af de risici, der er identificeret og evalueret i henhold til stk. 2, i det omfang det er teknisk muligt, gennem passende udformning og udvikling af højrisiko-AI-systemet
1. De højrisiko-AI-systemer, der gør brug af teknikker, som omfatter træning af AI-modeller med data, udvikles på grundlag af trænings-, validerings- og afprøvningsdatasæt, der opfylder de kvalitetskriterier, der er omhandlet i stk. 2-5, når sådanne datasæt anvendes.
2. Trænings-, validerings- og afprøvningsdatasæt skal være underlagt former for datastyrings- og dataforvaltningspraksis, som er tilpasset højrisiko-AI-systemets tilsigtede formål. Disse former for praksis vedrører navnlig:
a) de relevante valg med hensyn til udformning
b) dataindsamlingsprocesser og dataenes oprindelse og, hvis der er tale om personoplysninger, det oprindelige formål med dataindsamlingen
c) relevant dataforberedelsesbehandling såsom annotation, mærkning, rensning, opdatering, berigelse og aggregering
d) formuleringen af antagelser, navnlig med hensyn til de oplysninger, som dataene skal måle og repræsentere
e) en vurdering af tilgængeligheden, mængden og egnetheden af de datasæt, der er nødvendige
f) undersøgelse med hensyn til mulige bias, der sandsynligvis vil påvirke personers sundhed og sikkerhed, have negativ indvirkning på de grundlæggende rettigheder eller føre til forskelsbehandling, som er forbudt i henhold til EU-retten, navnlig hvis dataoutput påvirker input til fremtidige operationer
g) passende foranstaltninger til at påvise, forebygge og afbøde de mulige bias, der er identificeret i henhold til litra f)
h) kortlægning af relevante datamangler eller datautilstrækkeligheder, som forhindrer overholdelse af denne forordning, og hvordan de kan afhjælpes.
3. Trænings-, validerings- og afprøvningsdatasæt skal i betragtning af det tilsigtede formål være relevante, tilstrækkeligt repræsentative og i videst muligt omfang fejlfrie og fuldstændige. De skal have de tilstrækkelige statistiske egenskaber, herunder, hvis det er relevant, med hensyn til de personer eller grupper af personer, på hvilke højrisiko-AI-systemet tilsigtes anvendt. Disse egenskaber kan opfyldes for de enkelte datasæt eller for en kombination heraf.
1. Den tekniske dokumentation for et højrisiko-AI-system udarbejdes, inden systemet bringes i omsætning eller ibrugtages, og holdes ajour.
Den tekniske dokumentation udarbejdes således, at den påviser, at højrisiko-AI-systemet overholder de krav, der er fastsat i denne afdeling, og at de oplysninger, der er nødvendige for at vurdere AI-systemets overholdelse af disse krav, gives på en klar og forståelig måde til de nationale kompetente myndigheder og bemyndigede organer. Den skal som minimum indeholde de i bilag IV fastsatte elementer. SMV'er, herunder iværksættervirksomheder, kan fremlægge de elementer i den tekniske dokumentation, der er anført i bilag IV, på en forenklet måde. Med henblik herpå udarbejder Kommissionen en forenklet formular for teknisk dokumentation, der er målrettet små virksomheders og mikrovirksomheders behov. Hvis en SMV, herunder en iværksættervirksomhed, vælger at fremlægge de oplysninger, der kræves i bilag IV, på en forenklet måde, anvender den formularen, der er omhandlet i dette stykke. Bemyndigede organer skal acceptere formularen med henblik på overensstemmelsesvurderingen.
2. Hvis et højrisiko-AI-system tilknyttet et produkt, der er omfattet af den i bilag I, afsnit A, anførte EU-harmoniseringslovgivning, bringes i omsætning eller ibrugtages, udarbejdes der et enkelt sæt teknisk dokumentation, der indeholder alle de oplysninger, der er fastsat i stk. 1, samt de oplysninger, der kræves i henhold til disse retsakter.
3. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre bilag IV, hvis det i lyset af den tekniske udvikling er nødvendigt for, at den tekniske dokumentation giver alle de oplysninger, der er nødvendige for at vurdere, om systemet overholder de krav, der er fastsat i denne afdeling.
1. Højrisiko-AI-systemer skal teknisk muliggøre automatisk registrering af hændelser (»logfiler«) under systemets levetid.
2. For at sikre en passende grad af sporbarhed i højrisiko-AI-systemets funktion i forhold til systemets tilsigtede formål skal logningskapaciteten muliggøre registrering af hændelser, der er relevante for:
a) identifikation af situationer, der kan medføre, at højrisiko-AI-systemet udgør en risiko som omhandlet i artikel 79, stk. 1, eller en væsentlig ændring
b) lettelse af overvågningen efter omsætningen, jf. artikel 72, og
c) overvågning af driften af højrisiko-AI-systemer, jf. artikel 26, stk. 5.
3. For så vidt angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, litra a), omfatter logningskapaciteten som minimum:
a) registrering af tidsperioden for hver anvendelse af systemet (startdato og -klokkeslæt samt slutdato og -klokkeslæt for hver anvendelse)
b) den referencedatabase, med hvilken systemet har sammenholdt inputdata
c) de inputdata, som i søgningen har givet et match
d) identifikation af de fysiske personer, der er involveret i verifikationen af resultaterne, jf. artikel 14, stk. 5.
1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at deres drift er tilstrækkelig gennemsigtig til, at idriftsætterne kan fortolke et systems output og anvende det korrekt. Der sikres en passende type og grad af gennemsigtighed med henblik på at opnå overholdelse af de relevante udbyder- og idriftsætterforpligtelser, der er fastsat i afdeling 3.
2. Højrisiko-AI-systemer ledsages af en brugsanvisning i et passende digitalt format eller på anden vis, som indeholder kortfattede, fuldstændige, korrekte og klare oplysninger, som er relevante, tilgængelige og forståelige for idriftsætterne.
3. Brugsanvisningen skal som minimum indeholde følgende oplysninger:
a) identitet på og kontaktoplysninger for udbyderen og dennes eventuelle bemyndigede repræsentant
b) højrisiko-AI-systemets egenskaber, kapacitet og begrænsninger for dets ydeevne, herunder:
i) det tilsigtede formål
ii) det niveau af nøjagtighed, herunder systemets parametre, robusthed og cybersikkerhed, jf. artikel 15, i forhold til hvilket højrisiko-AI-systemet er afprøvet og valideret, og som kan forventes, samt alle kendte og forudsigelige omstændigheder, der kan have indvirkning på det forventede niveau af nøjagtighed, robusthed og cybersikkerhed
iii) alle kendte eller forudsigelige omstændigheder i forbindelse med anvendelse af højrisiko-AI-systemet i overensstemmelse med dets tilsigtede formål eller ved fejlanvendelse, der med rimelighed kan forudses, der kan medføre risici for sundhed og sikkerhed eller grundlæggende rettigheder, jf. artikel 9, stk. 2
iv) hvis det er relevant, højrisiko-AI-systemets tekniske kapacitet og egenskaber til at give oplysninger, som er relevante for at forklare dets output
v) hvis det er relevant, dets ydeevne for så vidt angår de specifikke personer eller grupper af personer, på hvilke systemet tilsigtes anvendt
hvis det er relevant, specifikationer for inputdataene eller andre relevante oplysninger med hensyn til de anvendte trænings-, validerings- og afprøvningsdatasæt under hensyntagen til højrisiko-AI-systemets tilsigtede formål
1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, herunder med passende menneske-maskine-grænsefladeværktøjer, at fysiske personer effektivt kan overvåge dem i den periode, hvor de er i brug.
2. Menneskeligt tilsyn har til formål at forebygge eller minimere de risici for sundhed, sikkerhed eller grundlæggende rettigheder, der kan opstå, når et højrisiko-AI-system anvendes i overensstemmelse med dets tilsigtede formål eller under forhold med fejlanvendelse, der med rimelighed kan forudses, navnlig hvis sådanne risici fortsat består trods anvendelsen af andre krav, der er fastsat i denne afdeling.
3. Tilsynsforanstaltningerne skal stå i et rimeligt forhold til risiciene, graden af autonomi og den kontekst, som højrisiko-AI-systemet anvendes i, og sikres ved hjælp af en af eller samtlige følgende typer foranstaltninger:
a) foranstaltninger, der er fastlagt og, hvis det er teknisk muligt, indbygget i højrisiko-AI-systemet fra udbyderens side, inden systemet bringes i omsætning eller ibrugtages
b) foranstaltninger, der er fastlagt af udbyderen, inden højrisiko-AI-systemet bringes i omsætning eller ibrugtages, og som er egnede til at blive gennemført af idriftsætteren.
4. Med henblik på gennemførelsen af stk. 1, 2 og 3 leveres højrisiko-AI-systemet til idriftsætteren på en sådan måde, at det er muligt for fysiske personer, der har fået til opgave at varetage menneskeligt tilsyn, alt efter hvad der er relevant og forholdsmæssigt, at:
a) forstå højrisiko-AI-systemets relevante kapacitet og begrænsninger korrekt og være i stand til at overvåge dets drift på behørig vis, herunder med henblik på at opdage og håndtere uregelmæssigheder, funktionsforstyrrelser og uventet ydeevne
b) være opmærksomme på den mulige tendens til automatisk eller i overdreven grad af forlade sig på output frembragt af et højrisiko-AI-system (automatiseringsbias), navnlig for så vidt angår højrisiko-AI-systemer, der anvendes til at give oplysninger eller anbefalinger til afgørelser, der skal træffes af fysiske personer
c) fortolke højrisiko-AI-systemets output korrekt under hensyntagen til f.eks. de tilgængelige fortolkningsværktøjer og -metoder
1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at de opnår et passende niveau af nøjagtighed, robusthed og cybersikkerhed, og at de i disse henseender yder konsistent i hele deres livscyklus.
2. For at håndtere de tekniske aspekter af, hvordan de passende niveauer af nøjagtighed og robusthed, der er fastsat i stk. 1, og andre relevante ydeevneparametre måles, tilskynder Kommissionen, alt efter hvad der er relevant, i samarbejde med relevante interessenter og organisationer såsom metrologi- og benchmarkingmyndigheder til udvikling af benchmarks og målemetoder.
3. Højrisiko-AI-systemers niveau og relevante parametre med hensyn til nøjagtighed angives i den ledsagende brugsanvisning.
4. Højrisiko-AI-systemer skal være så modstandsdygtige som muligt over for fejl, svigt og uoverensstemmelser, der kan forekomme i systemet eller i det miljø, som systemet fungerer i, navnlig på grund af systemets interaktion med fysiske personer eller andre systemer. I denne henseende træffes der tekniske og organisatoriske foranstaltninger.
Højrisiko-AI-systemers robusthed kan opnås ved hjælp af tekniske redundansløsninger, som kan omfatte backupplaner eller »fail-safe plans«.
De højrisiko-AI-systemer, der fortsætter med at lære efter at være bragt i omsætning eller ibrugtaget, udvikles på en sådan måde med henblik på i videst muligt omfang at fjerne eller reducere risikoen for, at eventuelt output behæftet med bias påvirker input i fremtidige operationer (feedbacksløjfer), og sikre, at sådanne feedbacksløjfer behørigt imødegås ved hjælp af passende afbødende foranstaltninger.
5. Højrisiko-AI-systemer skal være modstandsdygtige over for uautoriserede tredjeparters forsøg på at ændre deres anvendelse, output eller ydeevne ved at udnytte systemsårbarheder.
De tekniske løsninger, der har til formål at sikre cybersikkerhed i forbindelse med højrisiko-AI-systemer, skal stå i et passende forhold til de relevante omstændigheder og risiciene.
De tekniske løsninger til afhjælpning af AI-specifikke sårbarheder omfatter, alt efter hvad der er relevant, foranstaltninger til at forebygge, opdage, reagere på, afværge og kontrollere angreb, der søger at manipulere træningsdatasættet (dataforgiftning), eller forhåndstrænede komponenter, der anvendes i træning (modelforgiftning), input, der er udformet til at få AI-modellen til at begå fejl (ondsindede eksempler eller modelunddragelse), fortrolighedsangreb eller modelfejl.
Udbydere af højrisiko-AI-systemer skal:
a) sørge for, at deres højrisiko-AI-systemer overholder de krav, der er fastsat i afdeling 2
b) angive deres navn, registrerede firmanavn eller registrerede varemærke og kontaktadresse på højrisiko-AI-systemet, eller, hvis dette ikke er muligt, på dets emballage eller i den medfølgende dokumentation, alt efter hvad der er relevant
c) have indført et kvalitetsstyringssystem, der er i overensstemmelse med artikel 17
d) opbevare den dokumentation, der er omhandlet i artikel 18
e) opbevare de logfiler, der automatisk genereres af deres højrisiko-AI-systemer, når logfilerne er under deres kontrol, som omhandlet i artikel 19
f) sørge for, at højrisiko-AI-systemet underkastes den relevante overensstemmelsesvurderingsprocedure som omhandlet i artikel 43, inden systemet bringes i omsætning eller ibrugtages
g) udarbejde en EU-overensstemmelseserklæring i overensstemmelse med artikel 47
h) anbringe CE-mærkningen på højrisiko-AI-systemet eller, hvis dette ikke er muligt, på dets emballage eller i den medfølgende dokumentation, for at angive overensstemmelse med denne forordning i overensstemmelse med artikel 48
i) overholde de registreringsforpligtelser, der er omhandlet i artikel 49, stk. 1
j) foretage de nødvendige korrigerende tiltag og fremlægge oplysningerne som krævet i henhold til artikel 20
k) efter begrundet anmodning fra en national kompetent myndighed påvise, at højrisiko-AI-systemet er i overensstemmelse med de krav, der er fastsat i afdeling 2
1. Udbydere af højrisiko-AI-systemer indfører et kvalitetsstyringssystem, der sikrer overensstemmelse med denne forordning. Systemet dokumenteres på en systematisk og velordnet måde i form af skriftlige politikker, procedurer og anvisninger og skal som minimum omfatte følgende aspekter:
a) en strategi for overholdelse af lovgivningen, herunder overholdelse af overensstemmelsesvurderingsprocedurer og procedurer for forvaltning af ændringer af højrisiko-AI-systemet
b) teknikker, procedurer og systematiske tiltag, der skal anvendes til udformningen, kontrollen af udformningen og verifikationen af udformningen af højrisiko-AI-systemet
c) teknikker, procedurer og systematiske tiltag, der skal anvendes til udvikling, kvalitetskontrol og kvalitetssikring af højrisiko-AI-systemet
d) undersøgelses-, afprøvnings- og valideringsprocedurer, der gennemføres før, under og efter udviklingen af højrisiko-AI-systemet, samt den hyppighed, hvormed de gennemføres
e) tekniske specifikationer, herunder standarder, der anvendes, og, hvis de relevante harmoniserede standarder ikke anvendes fuldt ud eller ikke omfatter alle de relevante krav, der er fastsat i afdeling 2, de midler, der skal anvendes for at sikre, at højrisiko-AI-systemet overholder disse krav
f) systemer til og procedurer for dataforvaltning, herunder dataopsamling, dataindsamling, dataanalyse, datamærkning, datalagring, datafiltrering, datamining, dataaggregering, dataopbevaring og enhver anden handling vedrørende data, som udføres forud for og med henblik på omsætning eller ibrugtagning af højrisiko-AI-systemer
g) det risikoforvaltningssystem, der er omhandlet i artikel 9
h) oprettelse, implementering og vedligeholdelse af et system til overvågning efter omsætningen i overensstemmelse med artikel 72
i) procedurer for indberetning af en alvorlig hændelse i overensstemmelse med artikel 73
1. Udbyderen skal i ti år, efter at højrisiko-AI-systemet er blevet bragt i omsætning eller ibrugtaget, kunne forelægge de nationale kompetente myndigheder:
a) den i artikel 11 omhandlede tekniske dokumentation
b) dokumentationen vedrørende det i artikel 17 omhandlede kvalitetsstyringssystem
c) dokumentationen vedrørende ændringer, der er godkendt af bemyndigede organer, hvis det er relevant
d) de afgørelser og andre dokumenter, der er udstedt af de bemyndigede organer, hvis det er relevant
e) den i artikel 47 omhandlede EU-overensstemmelseserklæring.
2. Hver medlemsstat fastsætter, på hvilke betingelser den i stk. 1 omhandlede dokumentation fortsat er til rådighed for de nationale kompetente myndigheder i den periode, der er anført i nævnte stykke, i de tilfælde, hvor en udbyder eller dennes bemyndigede repræsentant, der er etableret på dens område, går konkurs eller indstiller sine aktiviteter inden udløbet af denne periode.
3. De udbydere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse, ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, beholder den tekniske dokumentation som en del af den dokumentation, der opbevares i henhold til den relevante EU-ret om finansielle tjenesteydelser.
1. Udbydere af højrisiko-AI-systemer opbevarer de i artikel 12, stk. 1, omhandlede logfiler, der genereres automatisk af deres højrisiko-AI-systemer, i det omfang sådanne logfiler er under deres kontrol. Uden at det berører gældende EU-ret eller national ret, opbevares logfilerne i en periode, der er passende i forhold til det tilsigtede formål med højrisiko-AI-systemet, på mindst seks måneder, medmindre andet er fastsat i gældende EU-ret eller national ret, navnlig EU-retten om beskyttelse af personoplysninger.
2. De udbydere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse, ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, beholder de logfiler, der automatisk genereres af deres højrisiko-AI-systemer som en del af den dokumentation, der opbevares i henhold til den relevante ret om finansielle tjenesteydelser.
1. De udbydere af højrisiko-AI-systemer, der mener eller har grund til at mene, at et højrisiko-AI-system, som de har bragt i omsætning eller ibrugtaget, ikke er i overensstemmelse med denne forordning, foretager omgående de nødvendige korrigerende tiltag til at bringe det pågældende system i overensstemmelse hermed, tilbagetrække det, tage det ud af drift eller tilbagekalde det, alt efter hvad der er relevant. De underretter distributørerne af det pågældende højrisiko-AI-system og om nødvendigt idriftsætterne, den bemyndigede repræsentant samt importører herom.
2. Hvis et højrisiko-AI-system udgør en risiko som omhandlet i artikel 79, stk. 1, og udbyderen får kendskab til denne risiko, undersøger denne omgående årsagerne i samarbejde med den indberettende idriftsætter, hvis det er relevant, og underretter de markedsovervågningsmyndigheder, der er kompetente for det pågældende højrisiko-AI-system, og, hvis det er relevant, det bemyndigede organ, der har udstedt en attest for det pågældende højrisiko-AI-system i overensstemmelse med artikel 44, navnlig om arten af den manglende overholdelse og om eventuelle relevante korrigerende tiltag, der er foretaget.
1. Udbydere af højrisiko-AI-systemer giver efter begrundet anmodning fra en kompetent myndighed denne myndighed alle de fornødne oplysninger og al den fornødne dokumentation for at påvise, at højrisiko-AI-systemet er i overensstemmelse med de krav, der er fastsat i afdeling 2, på et sprog, som den pågældende myndighed let kan forstå, og på et af EU-institutionernes officielle sprog som angivet af den pågældende medlemsstat.
2. Efter begrundet anmodning fra en kompetent myndighed giver udbydere, alt efter hvad der er relevant, også den anmodende kompetente myndighed adgang til de automatisk genererede logfiler af højrisiko-AI-systemet, der er omhandlet i artikel 12, stk. 1, i det omfang sådanne logfiler er under deres kontrol.
3. Alle de oplysninger, som en kompetent myndighed kommer i besiddelse af i henhold til denne artikel, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
1. Udbydere, der er etableret i tredjelande, udpeger, inden deres højrisiko-AI-systemer gøres tilgængelige på EU-markedet, ved skriftligt mandat en bemyndiget repræsentant, der er etableret i Unionen.
2. Udbyderen skal gøre det muligt for sin bemyndigede repræsentant at udføre de opgaver, der er fastsat i det mandat, vedkommende har modtaget fra udbyderen.
3. Den bemyndigede repræsentant udfører de opgaver, der er fastsat i det mandat, vedkommende har modtaget fra udbyderen. Vedkommende skal på anmodning give markedsovervågningsmyndighederne en kopi af mandatet på et af EU-institutionernes officielle sprog som angivet af den kompetente myndighed. Med henblik på denne forordning sætter mandatet den bemyndigede repræsentant i stand til at udføre følgende opgaver:
a) at kontrollere, at den EU-overensstemmelseserklæring, der er omhandlet i artikel 47, og den tekniske dokumentation, der er omhandlet i artikel 11, er blevet udarbejdet, og at en passende overensstemmelsesvurderingsprocedure er blevet gennemført af udbyderen
b) i en periode på ti år efter, at højrisiko-AI-systemet er blevet bragt i omsætning eller ibrugtaget, at kunne forelægge de kompetente myndigheder og nationale myndigheder eller organer, der er omhandlet i artikel 74, stk. 10, kontaktoplysningerne for den udbyder, der udpegede den bemyndigede repræsentant, en kopi af den i artikel 47 omhandlede EU-overensstemmelseserklæringen, den tekniske dokumentation og, hvis det er relevant, den attest, der er udstedt af det bemyndigede organ
c) efter begrundet anmodning at give de kompetente myndigheder alle de fornødne oplysninger og al den fornødne dokumentation, herunder den, der er omhandlet i dette afsnits litra b), for at påvise, at et højrisiko-AI-system er i overensstemmelse med kravene fastsat i afdeling 2, herunder adgang til logfilerne som omhandlet i artikel 12, stk. 1, der genereres automatisk af højrisiko-AI-systemet, i det omfang sådanne logfiler er under udbyderens kontrol
d) efter begrundet anmodning at samarbejde med de kompetente myndigheder om ethvert tiltag, som sidstnævnte foretager i forbindelse med højrisiko-AI-systemet, navnlig med henblik på at reducere og afhjælpe de risici, som højrisiko-AI-systemet udgør
1. Importører sikrer, før de bringer et højrisiko-AI-system i omsætning, at systemet er i overensstemmelse med denne forordning, ved at kontrollere, at:
a) udbyderen af dette højrisiko-AI-system har gennemført den relevante overensstemmelsesvurderingsprocedure, jf. artikel 43
b) udbyderen har udarbejdet den tekniske dokumentation i overensstemmelse med artikel 11 og bilag IV
c) systemet er forsynet med den krævede CE-mærkning og ledsages af den i artikel 47 omhandlede EU-overensstemmelseserklæring og brugsanvisning
d) udbyderen har udpeget en bemyndiget repræsentant i overensstemmelse med artikel 22, stk. 1.
2. Hvis en importør har tilstrækkelig grund til at mene, at et højrisiko-AI-system ikke er i overensstemmelse med denne forordning eller er forfalsket eller ledsaget af forfalsket dokumentation, må vedkommende ikke bringe systemet i omsætning, før det er blevet bragt i overensstemmelse hermed. Hvis højrisiko-AI-systemet udgør en risiko som omhandlet i artikel 79, stk. 1, underretter importøren udbyderen af systemet, den bemyndigede repræsentant og markedsovervågningsmyndighederne herom.
3. Importører angiver deres navn, registrerede firmanavn eller registrerede varemærke og kontaktadresse på højrisiko-AI-systemet og på dets emballage eller i den medfølgende dokumentation, hvis det er relevant.
4. Importører sikrer, at opbevarings- og transportbetingelserne, hvis det er relevant, for højrisiko-AI-systemer, som de har ansvaret for, ikke bringer dets overholdelse af kravene fastsat i afdeling 2 i fare.
5. Importører opbevarer i ti år efter, at højrisiko-AI-systemet er blevet bragt i omsætning eller ibrugtaget, en kopi af den attest, der er udstedt af det bemyndigede organ, hvis det er relevant, af brugsanvisningen og af den i artikel 47 omhandlede EU-overensstemmelseserklæring.
6. Importører giver efter begrundet anmodning og på et sprog, som de relevante myndigheder let kan forstå, disse myndigheder alle de fornødne oplysninger og al den fornødne dokumentation, herunder den, der er omhandlet i stk. 5, for at påvise, at et højrisiko-AI-system er i overensstemmelse med kravene i afdeling 2. Med henblik herpå skal de også sikre, at den tekniske dokumentation kan stilles til rådighed for disse myndigheder.
1. Distributører kontrollerer, før de gør et højrisiko-AI-system tilgængeligt på markedet, at det er forsynet med den krævede CE-mærkning, at det ledsages af en kopi af den i artikel 47 omhandlede EU-overensstemmelseserklæring og brugsanvisning, og at udbyderen og importøren af dette system, alt efter hvad der er relevant, har opfyldt deres respektive forpligtelser som fastsat i artikel 16, litra b) og c), og artikel 23, stk. 3.
2. Hvis en distributør på grundlag af oplysningerne i dennes besiddelse mener eller har grund til at mene, at et højrisiko-AI-system ikke er i overensstemmelse med kravene i afdeling 2, må vedkommende ikke gøre højrisiko-AI-systemet tilgængeligt på markedet, før systemet er blevet bragt i overensstemmelse med de nævnte krav. Hvis højrisiko-AI-systemet ydermere udgør en risiko som omhandlet i artikel 79, stk. 1, underretter distributøren udbyderen eller importøren af systemet, alt efter hvad der er relevant, herom.
3. Distributører sikrer, hvis det er relevant, at opbevarings- og transportbetingelserne for højrisiko-AI-systemer, som de har ansvaret for, ikke bringer systemets overholdelse af kravene i afdeling 2 i fare.
4. Hvis en distributør på grundlag af oplysningerne i dennes besiddelse mener eller har grund til at mene, at et højrisiko-AI-system, som vedkommende har gjort tilgængeligt på markedet, ikke er i overensstemmelse med kravene i afdeling 2, foretager vedkommende de nødvendige korrigerende tiltag for at bringe systemet i overensstemmelse med disse krav, tilbagetrække det eller tilbagekalde det eller sikrer, at udbyderen, importøren eller enhver relevant operatør, alt efter hvad der er relevant, foretager disse korrigerende tiltag. Hvis højrisiko-AI-systemet udgør en risiko som omhandlet i artikel 79, stk. 1, orienterer distributøren omgående udbyderen eller importøren af systemet og de myndigheder, der er kompetente for det pågældende højrisiko-AI-system, herom og giver navnlig nærmere oplysninger om den manglende overholdelse og de foretagne korrigerende tiltag.
5. Efter begrundet anmodning fra en relevant kompetent myndighed giver distributører af et højrisiko-AI-system denne myndighed alle fornødne oplysninger og al fornøden dokumentation vedrørende deres handlinger i henhold til stk. 1-4 for at påvise, at dette højrisiko-AI-system er i overensstemmelse med kravene i afdeling 2.
6. Distributører samarbejder med de relevante kompetente myndigheder om ethvert tiltag, som disse myndigheder foretager vedrørende et højrisiko-AI-system, som distributørerne har bragt i omsætning, navnlig med henblik på at reducere eller afbøde de risici, som det udgør.
1. Enhver distributør, importør, idriftsætter eller anden tredjepart anses for at være udbyder af et højrisiko-AI-system med henblik på denne forordning og er underlagt forpligtelserne for udbydere, jf. artikel 16, i følgende tilfælde:
a) de anbringer deres navn eller varemærke på et højrisiko-AI-system, der allerede er bragt i omsætning eller ibrugtaget, uden at det berører kontraktlige ordninger om, at forpligtelserne er fordelt anderledes
b) de foretager en væsentlig ændring af et højrisiko-AI-system, der allerede er bragt i omsætning eller allerede er ibrugtaget, på en sådan måde, at det forbliver et højrisiko-AI-system i henhold til artikel 6
c) de ændrer det tilsigtede formål med et AI-system, herunder et AI-system til almen brug, der ikke er klassificeret som højrisiko og allerede er bragt i omsætning eller ibrugtaget, på en sådan måde, at det pågældende AI-system bliver et højrisiko-AI-system i overensstemmelse med artikel 6.
2. Hvis de omstændigheder, der er omhandlet i stk. 1, indtræffer, anses den udbyder, der oprindeligt bragte AI-systemet i omsætning eller ibrugtog det, ikke længere for at være udbyder af dette specifikke AI-system i denne forordnings forstand. Denne oprindelige udbyder skal arbejde tæt sammen med nye udbydere og stille de nødvendige oplysninger til rådighed og give den teknisk adgang og anden bistand, som med rimelighed kan forventes, og som kræves for at opfylde forpligtelserne i denne forordning, navnlig hvad angår overholdelse af overensstemmelsesvurderingen af højrisiko-AI-systemer. Dette stykke finder ikke anvendelse i de tilfælde, hvor den oprindelige udbyder klart har præciseret, at dennes AI-system ikke skal ændres til et højrisiko-AI-system og dermed ikke er omfattet af forpligtelsen til at udlevere dokumentationen.
3. Hvad angår højrisiko-AI-systemer, der er sikkerhedskomponenter i produkter, der er omfattet af EU-harmoniseringslovgivningen opført i bilag I, afsnit A, anses producenten for at være udbyderen af højrisiko-AI-systemet og underlægges forpligtelserne i henhold til artikel 16 i følgende tilfælde:
a) Højrisiko-AI-systemet bringes i omsætning sammen med produktet under producentens navn eller varemærke.
b) Højrisiko-AI-systemet ibrugtages under producentens navn eller varemærke, efter at produktet er bragt i omsætning.
1. Idriftsættere af højrisiko-AI-systemer træffer passende tekniske og organisatoriske foranstaltninger for at sikre, at de anvender disse systemer i overensstemmelse med den brugsanvisning, der ledsager systemerne, jf. stk. 3 og 6.
2. Idriftsættere overdrager varetagelsen af det menneskelige tilsyn til fysiske personer, der har den nødvendige kompetence, uddannelse og myndighed samt den nødvendige støtte.
3. Forpligtelserne i stk. 1 og 2 berører ikke andre idriftsætterforpligtelser i henhold til EU-retten eller national ret eller idriftsætterens frihed til at tilrettelægge sine egne ressourcer og aktiviteter med henblik på at gennemføre de af udbyderen angivne foranstaltninger til menneskeligt tilsyn.
4. Uden at dette berører stk. 1 og 2, og i det omfang idriftsætteren udøver kontrol over inputdataene, sikrer denne idriftsætter, at inputdataene er relevante og tilstrækkeligt repræsentative med henblik på højrisiko-AI-systemets tilsigtede formål.
5. Idriftsættere overvåger driften af højrisiko-AI-systemet på grundlag af brugsanvisningen og underretter, hvis det er relevant, udbyderne i overensstemmelse med artikel 72. Hvis idriftsættere har grund til at mene, at anvendelsen af højrisiko-AI-systemet i overensstemmelse med anvisningerne kan resultere i, at AI-systemet udgør en risiko som omhandlet i artikel 79, stk. 1, underretter de uden unødigt ophold udbyderen eller distributøren og den relevante markedsovervågningsmyndighed og stiller anvendelsen af dette system i bero. Hvis idriftsættere har konstateret en alvorlig hændelse, underretter de også omgående først udbyderen og dernæst importøren eller distributøren og de relevante markedsovervågningsmyndigheder om den pågældende hændelse. Hvis idriftsætteren ikke er i stand til at kontakte udbyderen, finder artikel 73 tilsvarende anvendelse. Denne forpligtelse omfatter ikke følsomme operationelle data fra idriftsættere af AI-systemer, som er retshåndhævende myndigheder.
For idriftsættere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse, ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, anses overvågningsforpligtelsen i første afsnit for at være opfyldt ved overholdelse af reglerne om ordninger, processer og mekanismer for intern ledelse i henhold til den relevante ret om finansielle tjenesteydelser.
6. Idriftsættere af højrisiko-AI-systemer opbevarer de logfiler, der genereres automatisk af det pågældende højrisiko-AI-system, i det omfang sådanne logfiler er under deres kontrol, i en periode, der er passende i forhold til det tilsigtede formål med højrisiko-AI-systemet, på mindst seks måneder, medmindre andet er fastsat i gældende EU-ret eller national ret, navnlig EU-retten om beskyttelse af personoplysninger.
1. Inden idriftsættelse af et højrisiko-AI-system omhandlet i artikel 6, stk. 2, undtagen højrisiko-AI-systemer, der tilsigtes anvendt på det område, der er anført i bilag III, punkt 2, foretager idriftsættere, der er offentligretlige organer eller private enheder, der leverer offentlige tjenester, og idriftsættere af de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 5, litra b) og c), en analyse af konsekvensen for grundlæggende rettigheder, som anvendelsen af et sådant system kan medføre. Med henblik herpå foretager idriftsætterne en konsekvensanalyse bestående af:
a) en beskrivelse af idriftsætterens processer, i hvilke højrisiko-AI-systemet vil blive anvendt i overensstemmelse med dets tilsigtede formål
b) en beskrivelse af den periode og hyppighed, inden for hvilken hvert højrisiko-AI-system tilsigtes anvendt
c) de kategorier af fysiske personer og grupper, som forventes at blive påvirket af dets anvendelse i den specifikke kontekst
d) de specifikke risici for skade, der sandsynligvis vil påvirke de kategorier af fysiske personer eller grupper af personer, som er identificeret i henhold til dette stykkes litra c), under hensyntagen til oplysningerne fra udbyderen, jf. artikel 13
e) en beskrivelse af gennemførelsen af foranstaltninger til menneskeligt tilsyn i overensstemmelse med brugsanvisningen
f) de foranstaltninger, der skal træffes, hvis disse risici opstår, herunder ordningerne for intern ledelse og klagemekanismer.
2. Den i stk. 1 fastsatte forpligtelse gælder for den første anvendelse af højrisiko-AI-systemet. Idriftsætteren kan i lignende tilfælde anvende tidligere gennemførte konsekvensanalyser vedrørende grundlæggende rettigheder eller eksisterende konsekvensanalyser, som udbyderen har foretaget. Hvis idriftsætteren under anvendelsen af højrisiko-AI-systemet finder, at nogle af de elementer, der er anført i stk. 1, har ændret sig eller ikke længere er ajourførte, tager idriftsætteren de nødvendige skridt til at ajourføre oplysningerne.
3. Når den i stk. 1 omhandlede konsekvensanalyse er foretaget, meddeler idriftsætteren markedsovervågningsmyndigheden resultaterne heraf og forelægger den i denne artikels stk. 5 omhandlede udfyldte skabelon som en del af meddelelsen. I det tilfælde, som er omhandlet i artikel 46, stk. 1, kan idriftsættere undtages fra denne meddelelsespligt.
1. Hver medlemsstat udpeger eller opretter mindst én bemyndigende myndighed med ansvar for at indføre og gennemføre de nødvendige procedurer for vurdering, udpegelse og notifikation af overensstemmelsesvurderingsorganer og for overvågning heraf. Disse procedurer udvikles i samarbejde mellem de bemyndigende myndigheder i alle medlemsstater.
2. Medlemsstaterne kan beslutte, at den i stk. 1 omhandlede vurdering og overvågning skal foretages af et nationalt akkrediteringsorgan som omhandlet i og i overensstemmelse med forordning (EF) nr. 765/2008.
3. Bemyndigende myndigheder oprettes, organiseres og drives på en sådan måde, at der ikke opstår interessekonflikter med overensstemmelsesvurderingsorganerne, og at der sikres objektivitet og uvildighed i deres aktiviteter.
4. Bemyndigende myndigheder er organiseret på en sådan måde, at afgørelser om notifikation af overensstemmelsesvurderingsorganer træffes af kompetente personer, der ikke er identiske med dem, der har foretaget vurderingen af disse organer.
5. Bemyndigende myndigheder hverken tilbyder eller leverer aktiviteter, som udføres af overensstemmelsesvurderingsorganer, eller nogen form for rådgivningstjeneste på kommercielt eller konkurrencemæssigt grundlag.
6. Bemyndigende myndigheder sikrer, at de oplysninger, de kommer i besiddelse af, behandles fortroligt i overensstemmelse med artikel 78.
7. Bemyndigende myndigheder skal have et tilstrækkelig stort kompetent personale til, at de kan udføre deres opgaver behørigt. Det kompetente personale skal have den ekspertise, der er nødvendig for deres funktion, hvis det er relevant, på områder såsom informationsteknologier, AI og jura, herunder tilsyn med grundlæggende rettigheder.
1. Overensstemmelsesvurderingsorganer indgiver en ansøgning om notifikation til den bemyndigende myndighed i den medlemsstat, hvor de er etableret.
2. Ansøgningen om notifikation ledsages af en beskrivelse af de overensstemmelsesvurderingsaktiviteter, det eller de overensstemmelsesvurderingsmoduler og de typer AI-systemer, som overensstemmelsesvurderingsorganet hævder at være kompetent til, samt af en eventuel akkrediteringsattest udstedt af et nationalt akkrediteringsorgan, hvori det bekræftes, at overensstemmelsesvurderingsorganet opfylder kravene i artikel 31.
Alle gyldige dokumenter vedrørende eksisterende udpegelser af det ansøgende bemyndigede organ i henhold til enhver anden EU-harmoniseringslovgivning tilføjes.
3. Hvis det pågældende overensstemmelsesvurderingsorgan ikke kan forelægge en akkrediteringsattest, forelægger det den bemyndigende myndighed al den dokumentation, der er nødvendig for verifikationen, anerkendelsen og den regelmæssige overvågning af, at det overholder kravene i artikel 31.
4. For bemyndigede organer, der er udpeget i henhold til enhver anden EU-harmoniseringslovgivning, kan alle dokumenter og attester, der er knyttet til disse udpegelser, alt efter hvad der er relevant, anvendes til at understøtte deres udpegelsesprocedure i henhold til denne forordning. Det bemyndigede organ ajourfører den i denne artikels stk. 2 og 3 omhandlede dokumentation, når der sker relevante ændringer, for at give myndigheden med ansvar for bemyndigede organer mulighed for at overvåge og verificere, at alle krav i artikel 31 løbende er opfyldt.
1. De bemyndigende myndigheder må kun bemyndige overensstemmelsesvurderingsorganer, som opfylder kravene i artikel 31.
2. De bemyndigende myndigheder underretter Kommissionen og de øvrige medlemsstater om hvert overensstemmelsesvurderingsorgan, der er omhandlet i stk. 1, ved hjælp af det elektroniske notifikationsværktøj, der er udviklet og forvaltes af Kommissionen.
3. Den notifikationen, der er omhandlet i denne artikels stk. 2, skal indeholde fyldestgørende oplysninger om overensstemmelsesvurderingsaktiviteterne, overensstemmelsesvurderingsmodulet eller -modulerne, de pågældende typer AI-systemer og den relevante dokumentation for kompetencen. Hvis en bemyndigelse ikke er baseret på en akkrediteringsattest som omhandlet i artikel 29, stk. 2, skal den bemyndigende myndighed forelægge Kommissionen og de øvrige medlemsstater dokumentation, der bekræfter overensstemmelsesvurderingsorganets kompetence og de ordninger, der er indført for at sikre, at der regelmæssigt føres tilsyn med organet, og at organet også fremover vil opfylde de i artikel 31 fastsatte krav.
4. Det pågældende overensstemmelsesvurderingsorgan må kun udføre aktiviteter som bemyndiget organ, hvis Kommissionen og de øvrige medlemsstater ikke har gjort indsigelse inden for to uger efter en bemyndigende myndigheds notifikation, hvis den indeholder en akkrediteringsattest, jf. artikel 29, stk. 2, eller senest to måneder efter den bemyndigende myndigheds notifikation, hvis den indeholder den dokumentation, der er omhandlet i artikel 29, stk. 3.
5. Hvis der gøres indsigelse, hører Kommissionen straks de relevante medlemsstater og overensstemmelsesvurderingsorganet. Med henblik herpå træffer Kommissionen afgørelse om, hvorvidt tilladelsen er berettiget. Kommissionen retter sin afgørelse til den pågældende medlemsstat og det relevante overensstemmelsesvurderingsorgan.
1. Et bemyndiget organ skal oprettes i henhold til national ret i en medlemsstat og være en juridisk person.
2. Bemyndigede organer skal opfylde de organisatoriske krav samt de kvalitetsstyrings-, ressource- og procedurekrav, der er nødvendige for at kunne udføre deres opgaver, samt passende cybersikkerhedskrav.
3. Bemyndigede organers organisationsstruktur, ansvarsfordeling, rapporteringsveje og drift skal sikre, at der er tillid til deres arbejde og til resultaterne af de bemyndigede organers overensstemmelsesvurderingsaktiviteter.
4. Bemyndigede organer skal være uafhængige af udbyderen af højrisiko-AI-systemet, i forbindelse med hvilket de udfører overensstemmelsesvurderingsaktiviteter. Bemyndigede organer skal også være uafhængige af alle andre operatører, der har en økonomisk interesse i højrisiko-AI-systemer, der vurderes, og af enhver konkurrent til udbyderen. Dette er ikke til hinder for at anvende vurderede højrisiko-AI-systemer, som er nødvendige for overensstemmelsesvurderingsorganets drift, eller for at anvende sådanne højrisiko-AI-systemer til personlige formål.
5. Hverken overensstemmelsesvurderingsorganet, dets øverste ledelse eller det personale, der er ansvarligt for at udføre dets overensstemmelsesvurderingsopgaver, må være direkte involveret i udformningen, udviklingen, markedsføringen eller anvendelsen af højrisiko-AI-systemer eller repræsentere parter, der deltager i disse aktiviteter. De må ikke deltage i aktiviteter, som kan være i strid med deres objektivitet eller integritet, når de udfører de aktiviteter i forbindelse med overensstemmelsesvurdering, som de er bemyndiget til at udføre. Dette gælder navnlig rådgivningstjenester.
6. Bemyndigede organer skal være organiseret og arbejde på en sådan måde, at der i deres aktiviteter sikres uafhængighed, objektivitet og uvildighed. Bemyndigede organer skal dokumentere og gennemføre en struktur og procedurer til sikring af uvildighed og til fremme og anvendelse af principperne om uvildighed i hele deres organisation, hos alt deres personale og i alle deres vurderingsaktiviteter.
7. Bemyndigede organer skal have indført dokumenterede procedurer, der sikrer, at deres personale, udvalg, dattervirksomheder, underentreprenører og eventuelle tilknyttede organer eller personale i eksterne organer i overensstemmelse med artikel 78 opretholder fortroligheden af de oplysninger, som de kommer i besiddelse af under udførelsen af overensstemmelsesvurderingsaktiviteterne, undtagen når videregivelse heraf er påbudt ved lov. Bemyndigede organers personale har tavshedspligt med hensyn til alle oplysninger, det kommer i besiddelse af under udførelsen af sine opgaver i henhold til denne forordning, undtagen over for de bemyndigende myndigheder i den medlemsstat, hvor aktiviteterne udføres.
Hvis et overensstemmelsesvurderingsorgan påviser, at det er i overensstemmelse med kriterierne i de relevante harmoniserede standarder eller dele heraf, hvortil der er offentliggjort referencer i Den Europæiske Unions Tidende, formodes det at overholde kravene i artikel 31, for så vidt de gældende harmoniserede standarder dækker disse krav.
1. Hvis et bemyndiget organ giver bestemte opgaver i forbindelse med overensstemmelsesvurderingen i underentreprise eller anvender en dattervirksomhed, skal det sikre, at underentreprenøren eller dattervirksomheden opfylder kravene i artikel 31, og underrette den bemyndigende myndighed herom.
2. Bemyndigede organer har det fulde ansvar for de opgaver, som udføres af en underentreprenør eller dattervirksomhed.
3. Aktiviteter kan kun gives i underentreprise eller udføres af en dattervirksomhed, hvis udbyderen har givet sit samtykke hertil. Bemyndigede organer skal gøre en liste over deres dattervirksomheder offentligt tilgængelig.
4. De relevante dokumenter vedrørende vurderingen af underentreprenørens eller dattervirksomhedens kvalifikationer og det arbejde, som de har udført i henhold til denne forordning, stilles til rådighed for den bemyndigende myndighed i en periode på fem år fra datoen for afslutningen af underentreprisen.
1. Bemyndigede organer skal verificere, at højrisiko-AI-systemer er i overensstemmelse med overensstemmelsesvurderingsprocedurerne i artikel 43.
2. Bemyndigede organer skal under udførelsen af deres aktiviteter undgå unødvendige byrder for udbyderne og tage behørigt hensyn til udbyderens størrelse, den sektor, som den opererer inden for, dens struktur og til, hvor kompleks det pågældende højrisiko-AI-system er, navnlig med henblik på at minimere administrative byrder og overholdelsesomkostninger for mikrovirksomheder og små virksomheder som omhandlet i henstilling 2003/361/EF. Det bemyndigede organ skal dog respektere den grad af strenghed og det beskyttelsesniveau, der kræves for, at højrisiko-AI-systemet overholder kravene i denne forordning.
3. Bemyndigede organer skal stille al relevant dokumentation til rådighed og efter anmodning forelægge denne, herunder udbyderens dokumentation, for den bemyndigende myndighed, der er omhandlet i artikel 28, så denne myndighed kan udføre sine vurderings-, udpegelses-, notifikations- og overvågningsaktiviteter og lette vurderingen anført i denne afdeling.
1. Kommissionen tildeler hvert bemyndiget organ ét identifikationsnummer, også selv om organet er notificeret i henhold til mere end én EU-retsakt.
2. Kommissionen offentliggør listen over organer, der er notificeret i henhold til denne forordning, herunder deres identifikationsnumre og de aktiviteter, med henblik på hvilke de er notificeret. Kommissionen sikrer, at listen ajourføres.
1. Den bemyndigende myndighed meddeler Kommissionen og de øvrige medlemsstater alle relevante ændringer i notifikationen af et bemyndiget organ via det elektroniske notifikationsværktøj, der er omhandlet i artikel 30, stk. 2.
2. Procedurerne i artikel 29 og 30 finder anvendelse på udvidelser af rammerne for notifikationen.
Med hensyn til andre ændringer af notifikationen end udvidelser af rammerne for den, finder procedurerne i stk. 3-9 anvendelse.
3. Hvis et bemyndiget organ beslutter at indstille sine overensstemmelsesvurderingsaktiviteter, underretter det den bemyndigende myndighed og udbyderne hurtigst muligt og i tilfælde af planlagt indstilling mindst ét år, inden dets aktiviteter indstilles. Det bemyndigede organs attester kan forblive gyldige i en periode på ni måneder, efter at det bemyndigede organs aktiviteter er indstillet, forudsat at et andet bemyndiget organ skriftligt har bekræftet, at det vil påtage sig ansvaret for de højrisiko-AI-systemer, der er omfattet af disse attester. Sidstnævnte bemyndigede organ foretager en fuld vurdering af de berørte højrisiko-AI-systemer inden udgangen af denne periode på ni måneder, før det udsteder nye attester for disse systemer. Hvis det bemyndigede organ har indstillet sine aktiviteter, trækker den bemyndigende myndighed udpegelsen tilbage.
4. Hvis en bemyndigende myndighed har tilstrækkelig grund til at mene, at et bemyndiget organ ikke længere opfylder kravene i artikel 31, eller at det ikke opfylder sine forpligtelser, skal den bemyndigende myndighed hurtigst muligt undersøge sagen med den størst mulige omhu. I den forbindelse skal den underrette det berørte bemyndigede organ om sine indvendinger og giver det mulighed for at tilkendegive sine synspunkter. Hvis en bemyndigende myndighed konkluderer, at det bemyndigede organ ikke længere opfylder kravene i artikel 31, eller at det ikke opfylder sine forpligtelser, skal den begrænse, suspendere eller tilbagetrække udpegelsen, alt efter hvad der er relevant, afhængigt af hvor alvorlig den manglende opfyldelse af kravene eller forpligtelserne er. Den underretter omgående Kommissionen og de øvrige medlemsstater herom.
5. Hvis et bemyndiget organs udpegelse er blevet suspenderet, begrænset eller helt eller delvist tilbagetrukket, underretter dette organ de pågældende udbydere inden for ti dage.
6. Hvis en udpegelse begrænses, suspenderes eller tilbagetrækkes, træffer den bemyndigende myndighed de nødvendige foranstaltninger for at sikre, at det pågældende bemyndigede organs sager opbevares, og for at stille dem til rådighed for bemyndigende myndigheder i andre medlemsstater og for markedsovervågningsmyndighederne efter disses anmodning.
7. Hvis en udpegelse begrænses, suspenderes eller tilbagetrækkes, skal den bemyndigende myndighed:
1. Kommissionen undersøger om nødvendigt alle tilfælde, hvor der er grund til at betvivle et bemyndiget organs kompetence eller et bemyndiget organs fortsatte opfyldelse af kravene i artikel 31 og dets gældende ansvarsområder.
2. Den bemyndigende myndighed forelægger efter anmodning Kommissionen alle relevante oplysninger vedrørende notifikationen af det pågældende bemyndigede organ eller opretholdelsen af dets kompetence.
3. Kommissionen sikrer, at alle de følsomme oplysninger, som den kommer i besiddelse af som led i sine undersøgelser i henhold til denne artikel, behandles fortroligt i overensstemmelse med artikel 78.
4. Hvis Kommissionen konstaterer, at et bemyndiget organ ikke eller ikke længere opfylder kravene i forbindelse med sin notifikation, underretter den den bemyndigende medlemsstat herom og anmoder den om at træffe de nødvendige korrigerende foranstaltninger, herunder om nødvendigt suspension eller tilbagetrækning af notifikationen. Hvis den bemyndigende myndighed ikke træffer de nødvendige foranstaltninger, kan Kommissionen ved hjælp af en gennemførelsesretsakt suspendere, begrænse eller tilbagetrække udpegelsen. Denne gennemførelsesretsakt vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
1. Kommissionen sikrer, at der med hensyn til højrisiko-AI-systemer etableres passende koordinering og samarbejde mellem de bemyndigede organer, der er aktive inden for overensstemmelsesvurderingsprocedurer i henhold til denne forordning, i form af en sektorspecifik gruppe af bemyndigede organer, og at det styres på forsvarlig måde.
2. Hver bemyndigende myndighed sørger for, at de organer, den har bemyndiget, deltager i arbejdet i en gruppe, jf. stk. 1, enten direkte eller gennem udpegede repræsentanter.
3. Kommissionen sørger for udveksling af viden og bedste praksis mellem de bemyndigede myndigheder.
Overensstemmelsesvurderingsorganer, der er oprettet i henhold til retten i et tredjeland, med hvilket Unionen har indgået en aftale, kan godkendes til at udføre bemyndigede organers aktiviteter i henhold til denne forordning, forudsat at de opfylder kravene i artikel 31, eller at de sikrer et tilsvarende overensstemmelsesniveau.
1. Højrisiko-AI-systemer eller AI-modeller til almen brug, som er i overensstemmelse med harmoniserede standarder eller dele heraf, hvis referencer er offentliggjort i Den Europæiske Unions Tidende i overensstemmelse med forordning (EU) nr. 1025/2012, formodes at være i overensstemmelse med kravene i dette kapitels afdeling 2 eller, alt efter hvad der er relevant, med forpligtelserne i nærværende forordnings kapitel V, afdeling 2 og 3, for så vidt de nævnte standarder omfatter disse krav eller forpligtelser.
2. I overensstemmelse med artikel 10 i forordning (EU) nr. 1025/2012 fremsætter Kommissionen uden unødigt ophold standardiseringsanmodninger, der dækker alle kravene i dette kapitels afdeling 2, og, alt efter hvad der er relevant, standardiseringsanmodninger, der dækker forpligtelserne i nærværende forordnings kapitel V, afdeling 2 og 3. I standardiseringsanmodningen anmodes der også om dokumentation vedrørende rapporterings- og dokumentationsprocesser med henblik på at forbedre AI-systemernes ressourceydeevne såsom reduktion af højrisiko-AI-systemets forbrug af energi og af andre ressourcer i løbet af dets livscyklus og vedrørende energieffektiv udvikling af AI-modeller til almen brug. I forbindelse med udarbejdelsen af en standardiseringsanmodning hører Kommissionen AI-udvalget og relevante interessenter, herunder det rådgivende forum.
Når Kommissionen fremsætter en standardiseringsanmodning til de europæiske standardiseringsorganisationer, præciserer den, at standarderne skal være klare, overensstemmende, herunder med de standarder, der er udviklet i de forskellige sektorer for produkter, der er omfattet af den gældende EU-harmoniseringslovgivning, som er opført i bilag I, og søge at sikre, at højrisiko-AI-systemer eller AI-modeller til almen brug, som bringes i omsætning eller tages i brug i Unionen, opfylder de relevante krav eller forpligtelser i nærværende forordning.
Kommissionen anmoder de europæiske standardiseringsorganisationer om at dokumentere deres bedste indsats for at nå de mål, der er omhandlet i dette stykkes første og andet afsnit, i overensstemmelse med artikel 24 i forordning (EU) nr. 1025/2012.
3. Deltagerne i standardiseringsprocessen skal søge at fremme investering og innovation inden for AI, herunder gennem øget retssikkerhed, samt EU-markedets konkurrenceevne og vækst, at bidrage til at styrke globalt samarbejde om standardisering og tage højde for eksisterende internationale standarder inden for kunstig intelligens, som stemmer overens med Unionens værdier, grundlæggende rettigheder og interesser, og at styrke multiinteressentforvaltning, der sikrer en afbalanceret repræsentation af interesser og effektiv deltagelse af alle relevante interessenter i overensstemmelse med artikel 5, 6 og 7 i forordning (EU) nr. 1025/2012.
1. Kommissionen kan vedtage gennemførelsesretsakter om fastlæggelse af fælles specifikationer for kravene i dette kapitels afdeling 2 eller, alt efter hvad der er relevant, for forpligtelserne i kapitel V, afdeling 2 og 3, hvis følgende betingelser er opfyldt:
a) Kommissionen har i henhold til artikel 10, stk. 1, i forordning (EU) nr. 1025/2012 anmodet en eller flere europæiske standardiseringsorganisationer om at udarbejde en harmoniseret standard for kravene i dette kapitels afdeling 2 eller, hvis det er relevant, for forpligtelserne i kapitel V, afdeling 2 og 3, og:
i) anmodningen er ikke blevet imødekommet af nogen af de europæiske standardiseringsorganisationer, eller
ii) de harmoniserede standarder, der behandler den pågældende anmodning, er ikke blevet leveret inden for den frist, der er fastsat i overensstemmelse med artikel 10, stk. 1, i forordning (EU) nr. 1025/2012, eller
iii) de relevante harmoniserede standarder tager ikke i tilstrækkelig grad hensyn til de grundlæggende rettigheder, eller
iv) de harmoniserede standarder er ikke i overensstemmelse med anmodningen, og
b) ingen reference til harmoniserede standarder, der dækker de krav, der er omhandlet i dette kapitels afdeling 2, eller, hvis det er relevant, forpligtelserne i kapitel V, afdeling 2 og 3, er offentliggjort i Den Europæiske Unions Tidende i overensstemmelse med forordning (EU) nr. 1025/2012, og ingen reference af denne art forventes at blive offentliggjort inden for et rimeligt tidsrum.
Når Kommissionen udarbejder de fælles specifikationer, skal den høre det rådgivende forum, der er omhandlet i artikel 67.
De gennemførelsesretsakter, der er omhandlet i dette stykkes første afsnit, vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
2. Inden Kommissionen udarbejder et udkast til gennemførelsesretsakt, underretter den det udvalg, der er omhandlet i artikel 22 i forordning (EU) nr. 1025/2012, om, at den anser betingelserne i nærværende artikels stk. 1 for opfyldt.
3. Højrisiko-AI-systemer eller AI-modeller til almen brug, som er i overensstemmelse med de fælles specifikationer, der er omhandlet i stk. 1, eller dele af disse specifikationer, formodes at være i overensstemmelse med kravene fastsat i dette kapitels afdeling 2 eller, alt efter hvad der er relevant, at overholde forpligtelserne omhandlet i kapital V, afdeling 2 og 3, for så vidt de nævnte fælles specifikationer omfatter disse forpligtelser.
1. Højrisiko-AI-systemer, der er blevet trænet og afprøvet på data, som afspejler de specifikke geografiske, adfærdsmæssige, kontekstuelle eller funktionelle rammer, som de tilsigtes anvendt inden for, formodes at overholde de relevante krav i artikel 10, stk. 4.
2. Højrisiko-AI-systemer, der er certificeret, eller for hvilke der er udstedt en overensstemmelseserklæring i henhold til en cybersikkerhedsordning i henhold til forordning (EU) 2019/881, og hvis referencer er offentliggjort i Den Europæiske Unions Tidende, formodes at overholde cybersikkerhedskravene i nærværende forordnings artikel 15, såfremt cybersikkerhedsattesten eller overensstemmelseserklæringen eller dele heraf dækker disse krav.
1. Hvad angår højrisiko-AI-systemer, der er opført i bilag III, punkt 1, skal udbyderen, såfremt denne ved påvisningen af, at et højrisiko-AI-system overholder kravene i afdeling 2, har anvendt harmoniserede standarder omhandlet i artikel 40 eller, hvis det er relevant, fælles specifikationer omhandlet i artikel 41, vælge en af følgende overensstemmelsesvurderingsprocedurer på grundlag af:
a) intern kontrol omhandlet i bilag VI, eller
b) vurdering af kvalitetsstyringssystemet og vurdering af den tekniske dokumentation med inddragelse af et bemyndiget organ omhandlet i bilag VII.
Ved påvisning af et højrisiko-AI-systems overensstemmelse med kravene i afdeling 2 følger udbyderen overensstemmelsesvurderingsproceduren i bilag VII, hvis:
a) der ikke findes harmoniserede standarder omhandlet i artikel 40, og der ikke findes fælles specifikationer omhandlet i artikel 41
b) udbyderen ikke har anvendt eller kun har anvendt en del af den harmoniserede standard
c) de i litra a) omhandlede fælles specifikationer findes, men udbyderen ikke har anvendt dem
d) én eller flere af de i litra a) omhandlede harmoniserede standarder er blevet offentliggjort med en begrænsning og kun med hensyn til den del af standarden, som er genstand for begrænsning.
Med henblik på den overensstemmelsesvurderingsprocedure, der er omhandlet i bilag VII, kan udbyderen vælge hvilket som helst af de bemyndigede organer. Hvis højrisiko-AI-systemet tilsigtes ibrugtaget af retshåndhævende myndigheder, indvandringsmyndigheder, asylmyndigheder eller EU-institutioner, -organer, -kontorer eller -agenturer, fungerer den markedsovervågningsmyndighed, der er omhandlet i artikel 74, stk. 8 eller 9, alt efter hvad der er relevant, imidlertid som bemyndiget organ.
2. Hvad angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2-8, skal udbyderne følge overensstemmelsesvurderingsproceduren på grundlag af intern kontrol som omhandlet i bilag VI, som ikke foreskriver inddragelse af et bemyndiget organ.
3. For højrisiko-AI-systemer, som er omfattet af EU-harmoniseringslovgivningen, der er opført i bilag I, afsnit A, skal udbyderen følge den relevante overensstemmelsesvurderingsprocedure som krævet i henhold til disse retsakter. Kravene i dette kapitels afdeling 2 finder anvendelse på disse højrisiko-AI-systemer og skal indgå i den nævnte vurdering. Punkt 4.3, 4.4 og 4.5 samt bilag VII, punkt 4.6, femte afsnit, finder også anvendelse.
1. Attester, der udstedes af bemyndigede organer i overensstemmelse med bilag VII, udfærdiges på et sprog, som er letforståeligt for de relevante myndigheder i den medlemsstat, hvor det bemyndigede organ er etableret.
2. Attester er gyldige i den periode, de angiver, og som ikke må overstige fem år for AI-systemer, der er omfattet af bilag I, og fire år for AI-systemer, der er omfattet af bilag III. På udbyderens anmodning kan en attests gyldighedsperiode forlænges med yderligere perioder på hver højst fem år for AI-systemer, der er omfattet af bilag I, og fire år for AI-systemer, der er omfattet af bilag III, på grundlag af en fornyet vurdering i overensstemmelse med gældende overensstemmelsesvurderingsprocedurer. Et eventuelt tillæg til en attest forbliver gyldigt, forudsat at den attest, det supplerer, er gyldig.
3. Hvis et bemyndiget organ fastslår, at et AI-system ikke længere opfylder kravene i afdeling 2, skal det under iagttagelse af proportionalitetsprincippet suspendere eller tilbagetrække den udstedte attest eller begrænse den, medmindre udbyderen af systemet gennem passende korrigerende tiltag og inden for en passende frist fastsat af det bemyndigede organ sikrer overholdelse af de pågældende krav. Det bemyndigede organ skal begrunde sin afgørelse.
De bemyndigede organers afgørelser, herunder om udstedte overensstemmelsesattester, skal kunne appelleres.
1. Bemyndigede organer skal oplyse den bemyndigende myndighed om følgende:
a) alle EU-vurderingsattester for teknisk dokumentation, eventuelle tillæg til disse attester og eventuelle godkendelser af kvalitetsstyringssystemer, der er udstedt i overensstemmelse med kravene i bilag VII
b) alle afslag på, begrænsninger af, suspensioner af eller tilbagetrækninger af EU-vurderingsattester for teknisk dokumentation eller godkendelser af kvalitetsstyringssystemer udstedt i overensstemmelse med kravene i bilag VII
c) alle forhold, der har indflydelse på omfanget af eller betingelserne for notifikationen
d) alle anmodninger om oplysninger om overensstemmelsesvurderingsaktiviteter, som de har modtaget fra markedsovervågningsmyndighederne
e) efter anmodning, overensstemmelsesvurderingsaktiviteter, der er udført inden anvendelsesområdet for deres notifikation, og enhver anden aktivitet, der er udført, herunder grænseoverskridende aktiviteter og underentreprise.
2. Hvert bemyndiget organ skal underrette de øvrige bemyndigede organer om:
a) afviste, suspenderede eller tilbagetrukne godkendelser af kvalitetsstyringssystemer samt, efter anmodning, udstedte godkendelser af kvalitetsstyringssystemer
b) EU-vurderingsattester for teknisk dokumentation eller tillæg hertil, som det har afvist, tilbagetrukket, suspenderet eller på anden måde begrænset, og, efter anmodning, de attester og/eller tillæg hertil, som det har udstedt.
3. Hvert bemyndiget organ skal give de øvrige bemyndigede organer, som udfører lignende overensstemmelsesvurderingsaktiviteter vedrørende de samme typer AI-systemer, relevante oplysninger om spørgsmål vedrørende negative og, efter anmodning, positive overensstemmelsesvurderingsresultater.
4. Bemyndigende myndigheder sikrer, at de oplysninger, de kommer i besiddelse af, behandles fortroligt i overensstemmelse med artikel 78.
1. Uanset artikel 43 og efter behørigt begrundet anmodning kan enhver markedsovervågningsmyndighed tillade, at specifikke højrisiko-AI-systemer bringes i omsætning eller ibrugtages på den pågældende medlemsstats område af ekstraordinære hensyn til den offentlige sikkerhed eller beskyttelse af menneskers liv og sundhed, miljøbeskyttelse eller beskyttelse af centrale industrielle og infrastrukturmæssige aktiver. Tilladelsen gælder kun for en begrænset periode, mens de nødvendige overensstemmelsesvurderingsprocedurer gennemføres, under hensyntagen til de ekstraordinære hensyn, der begrunder undtagelsen. Gennemførelsen af disse procedurer skal ske uden unødigt ophold.
2. I behørigt begrundede hastende tilfælde af ekstraordinære hensyn til den offentlige sikkerhed eller i tilfælde af en specifik, væsentlig og overhængende fare for fysiske personers liv eller fysiske sikkerhed kan de retshåndhævende myndigheder eller civilbeskyttelsesmyndighederne ibrugtage et specifikt højrisiko-AI-system uden den tilladelse, der er omhandlet i stk. 1, forudsat at der anmodes om en sådan tilladelse under eller efter anvendelsen uden unødigt ophold. Hvis den i stk. 1 omhandlede tilladelse afvises, skal anvendelsen af højrisiko-AI-systemet indstilles med øjeblikkelig virkning, og alle resultater og output af en sådan anvendelse skal omgående kasseres.
3. Den i stk. 1 omhandlede tilladelse udstedes kun, hvis markedsovervågningsmyndigheden konkluderer, at højrisiko-AI-systemet overholder kravene i afdeling 2. Markedsovervågningsmyndigheden underretter Kommissionen og de øvrige medlemsstater om enhver tilladelse, der udstedes i henhold til stk. 1 og 2. Denne forpligtelse omfatter ikke følsomme operationelle oplysninger i forbindelse med de retshåndhævende myndigheders aktiviteter.
4. Hvis der ikke inden for 15 kalenderdage efter modtagelsen af de i stk. 3 omhandlede oplysninger er blevet gjort indsigelse af en medlemsstat eller Kommissionen mod en tilladelse udstedt af en markedsovervågningsmyndighed i en medlemsstat i overensstemmelse med stk. 1, anses denne tilladelse for at være berettiget.
5. Hvis en medlemsstat inden for 15 kalenderdage efter modtagelsen af den i stk. 3 omhandlede underretning gør indsigelse mod en tilladelse, der er udstedt af en markedsovervågningsmyndighed i en anden medlemsstat, eller hvis Kommissionen finder, at tilladelsen er i strid med EU-retten, eller at medlemsstaternes konklusion vedrørende systemets overholdelse af kravene som omhandlet i stk. 3 er ubegrundet, hører Kommissionen straks den relevante medlemsstat. Operatørerne skal høres og have mulighed for at fremsætte deres synspunkter. På denne baggrund træffer Kommissionen afgørelse om, hvorvidt tilladelsen er berettiget. Kommissionen retter sin afgørelse til den pågældende medlemsstat og til de relevante operatører.
1. Udbyderen udarbejder en skriftlig, maskinlæsbar, fysisk eller elektronisk undertegnet EU-overensstemmelseserklæring for hvert højrisiko-AI-system og opbevarer den, så den i ti år efter, at højrisiko-AI-systemet er blevet bragt i omsætning eller ibrugtaget, står til rådighed for de nationale kompetente myndigheder. Det skal af EU-overensstemmelseserklæringen fremgå, hvilket højrisiko-AI-system den vedrører. Et eksemplar af EU-overensstemmelseserklæringen indgives til de relevante nationale kompetente myndigheder.
2. Det skal af EU-overensstemmelseserklæringen fremgå, at det pågældende højrisiko-AI-system opfylder kravene i afdeling 2. EU-overensstemmelseserklæringen skal indeholde de oplysninger, der er fastsat i bilag V, og skal oversættes til et sprog, der let kan forstås af de nationale kompetente myndigheder i de medlemsstater, hvor højrisiko-AI-systemet bringes i omsætning eller gøres tilgængeligt.
3. For højrisiko-AI-systemer, der er omfattet af anden EU-harmoniseringslovgivning, i henhold til hvilken der også kræves en EU-overensstemmelseserklæring, udarbejdes der en enkelt EU-overensstemmelseserklæring for al EU-ret, der finder anvendelse på højrisiko-AI-systemet. Erklæringen skal indeholde alle de oplysninger, der er påkrævet for at identificere, hvilken EU-harmoniseringslovgivning erklæringen vedrører.
4. Ved at udarbejde EU-overensstemmelseserklæringen står udbyderen inde for, at kravene i afdeling 2 overholdes. Udbyderen skal sørge for at holde EU-overensstemmelseserklæringen ajour, alt efter hvad der er relevant.
5. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre bilag V ved at ajourføre indholdet af EU-overensstemmelseserklæringen, der er fastsat i nævnte bilag, for at indføre elementer, der bliver nødvendige i lyset af den tekniske udvikling.
1. CE-mærkningen er underlagt de generelle principper fastsat i artikel 30 i forordning (EF) nr. 765/2008.
2. For højrisiko-AI-systemer, som leveres digitalt, anvendes der kun en digital CE-mærkning, hvis den er let at tilgå via den grænseflade, hvorfra det pågældende system tilgås, eller via en lettilgængelig maskinlæsbar kode eller andre elektroniske midler.
3. CE-mærkningen skal i tilknytning til højrisiko-AI-systemer anbringes synligt, letlæseligt og således, at den ikke kan slettes. Hvis højrisiko-AI-systemet er af en sådan art, at dette ikke er muligt eller berettiget, anbringes mærkningen på emballagen eller i den medfølgende dokumentation, alt efter hvad der relevant.
4. Hvis det er relevant, skal CE-mærkningen følges af identifikationsnummeret for det bemyndigede organ, der er ansvarligt for overensstemmelsesvurderingsprocedurerne i artikel 43. Det bemyndigede organs identifikationsnummer anbringes af organet selv eller efter dettes anvisninger af udbyderen eller af udbyderens bemyndigede repræsentant. Identifikationsnummeret skal også fremgå af salgsfremmende materiale, som nævner, at højrisiko-AI-systemet opfylder kravene til CE-mærkning.
5. Hvis højrisiko-AI-systemet er omfattet af anden EU-ret, som også indeholder bestemmelser om anbringelsen af CE-mærkning, skal CE-mærkningen angive, at højrisiko-AI-systemet ligeledes opfylder kravene i denne anden ret.
1. Inden et højrisiko-AI-system, der er opført i bilag III, med undtagelse af de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2, bringes i omsætning eller ibrugtages, skal udbyderen eller, hvis det er relevant, den bemyndigede repræsentant registrere sig selv og deres system i den EU-database, der er omhandlet i artikel 71.
2. Inden et AI-system, for hvilket udbyderen har konkluderet, at det ikke udgør en høj risiko i overensstemmelse med artikel 6, stk. 3, bringes i omsætning eller tages i brug, registrerer den pågældende udbyder eller, hvis det er relevant, den bemyndigede repræsentant sig selv og dette system i den EU-database, der er omhandlet i artikel 71.
3. Inden et højrisiko-AI-system, der er opført i bilag III, med undtagelse af de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2, ibrugtages eller anvendes, skal idriftsættere, som er offentlige myndigheder, EU-institutioner, -organer, -kontorer eller -agenturer eller personer, der handler på deres vegne, lade sig registrere, vælge systemet og registrere dets anvendelse i den EU-database, der er omhandlet i artikel 71.
4. For de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, 6 og 7, inden for retshåndhævelse og migrationsstyring, asylforvaltning og grænsekontrol, foretages den registrering, der er omhandlet i denne artikels stk. 1, 2 og 3, i en sikker ikkeoffentlig del af den EU-database, der er omhandlet i artikel 71, og omfatter kun følgende oplysninger, alt efter hvad der er relevant, der er omhandlet i:
a) bilag VIII, afsnit A, punkt 1-10, med undtagelse af punkt 6, 8 og 9
b) bilag VIII, afsnit B, punkt 1-5 og 8 og 9
c) bilag VIII, afsnit C, punkt 1-3
d) bilag IX, punkt 1, 2, 3 og 5.
Kun Kommissionen og de nationale myndigheder, der er omhandlet i artikel 74, stk. 8, har adgang til de respektive begrænsede afsnit i den EU-database, der er opført i nærværende stykkes første afsnit.
5. Højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2, registreres på nationalt plan.
1. Udbydere skal sikre, at AI-systemer, der er tilsigtet at interagere direkte med fysiske personer, udformes og udvikles på en sådan måde, at de pågældende fysiske personer oplyses om, at de interagerer med et AI-system, medmindre dette er indlysende ud fra en rimeligt velinformeret, opmærksom og forsigtig fysisk persons synspunkt ud fra omstændighederne og anvendelsessammenhængen. Denne forpligtelse finder ikke anvendelse på AI-systemer, der ved lov er godkendt til at afsløre, forebygge, efterforske eller retsforfølge strafbare handlinger, med forbehold af passende sikkerhedsforanstaltninger for tredjemands rettigheder og friheder, medmindre disse systemer er tilgængelige for offentligheden med henblik på at anmelde en strafbar handling.
2. Udbydere af AI-systemer, herunder AI-systemer til almen brug, der genererer syntetisk lyd-, billed-, video- eller tekstindhold, sikrer, at AI-systemets output er mærket i et maskinlæsbart format og kan spores som kunstigt genereret eller manipuleret. Udbyderne sikrer, at deres tekniske løsninger er effektive, interoperable, robuste og pålidelige, i det omfang dette er teknisk muligt, under hensyntagen til de særlige forhold og begrænsninger for forskellige typer indhold, gennemførelsesomkostningerne og det generelt anerkendte aktuelle tekniske niveau, som kan være afspejlet i relevante tekniske standarder. Denne forpligtelse finder ikke anvendelse, i det omfang AI-systemerne udfører en hjælpefunktion med henblik på standardredigering eller ikke i væsentlig grad ændrer de inputdata, der leveres af idriftsætteren eller semantikken heraf, eller, hvis det ved lov er tilladt for at afsløre, forebygge, efterforske eller retsforfølge strafbare handlinger.
3. Idriftsættere af et system til følelsesgenkendelse eller et system til biometrisk kategorisering underretter de fysiske personer, der udsættes herfor, om driften af systemet og behandler personoplysningerne i overensstemmelse med forordning (EU) 2016/679 og (EU) 2018/1725 og direktiv (EU) 2016/680, alt efter hvad der er relevant. Denne forpligtelse finder ikke anvendelse på AI-systemer, der anvendes til biometrisk kategorisering og følelsesgenkendelse, og som i ved lov er godkendt til at afsløre, forebygge eller efterforske strafbare handlinger, med forbehold af passende sikkerhedsforanstaltninger for tredjemands rettigheder og frihedsrettigheder og i overensstemmelse med EU-retten.
4. Idriftsættere af et AI-system, der genererer eller manipulerer billed-, lyd- eller videoindhold, der udgør en deepfake, skal oplyse, at indholdet er blevet genereret kunstigt eller manipuleret. Denne forpligtelse gælder ikke, hvis anvendelsen ved lov er tilladt for at afsløre, forebygge, efterforske eller retsforfølge strafbare handlinger. Hvis indholdet er en del af et oplagt kunstnerisk, kreativt, satirisk, fiktivt eller tilsvarende arbejde eller program, er gennemsigtighedsforpligtelserne i dette stykke begrænset til oplysning om eksistensen af sådant genereret eller manipuleret indhold på en passende måde, der ikke er til gene for visningen eller nydelsen af værket.
1. En AI-model til almen brug klassificeres som en AI-model til almen brug med systemisk risiko, hvis den opfylder et eller flere af følgende betingelser:
a) den har kapaciteter med stor virkning evalueret på grundlag af passende tekniske værktøjer og metoder, herunder indikatorer og benchmarks
b) på grundlag af en afgørelse truffet af Kommissionen på eget initiativ eller efter en kvalificeret varsling fra det videnskabelige panel har den kapaciteter eller virkning, der svarer til dem, der er fastsat i litra a), under hensyntagen til kriterierne i bilag XIII.
2. En AI-model til almen brug antages at have kapaciteter med stor virkning i henhold til stk. 1, litra a), når den kumulerede mængde beregningskraft, der anvendes til dens træning, målt i flydende kommatalsberegninger, er større end 1025.
3. Kommissionen vedtager delegerede retsakter i overensstemmelse med artikel 97 for at ændre de tærskler, der er anført i nærværende artikels stk. 1 og 2, samt for at supplere benchmarks og indikatorer i lyset af den teknologiske udvikling såsom algoritmiske forbedringer eller øget hardwareeffektivitet, når det er nødvendigt, således at disse tærskler afspejler det aktuelle tekniske niveau.
1. Hvis en AI-model til almen brug opfylder betingelsen i artikel 51, stk. 1, litra a), giver den relevante udbyder Kommissionen meddelelse så hurtigt som muligt og under alle omstændigheder senest to uger efter, at dette krav er opfyldt, eller det bliver kendt, at det vil blive opfyldt. Meddelelsen skal indeholde de oplysninger, der er nødvendige for at påvise, at det relevante krav er opfyldt. Hvis Kommissionen får kendskab til en AI-model til almen brug, der frembyder systemiske risici, som den ikke har fået meddelelse om, kan den beslutte at udpege den som en model med systemisk risiko.
2. Udbyderen af en AI-model til almen brug, der opfylder betingelsen omhandlet i artikel 51, stk. 1, litra a), kan sammen med dens meddelelse fremlægge tilstrækkeligt underbyggede argumenter til at påvise, at AI-modellen til almen brug, selv om den opfylder det pågældende krav, undtagelsesvis ikke frembyder systemiske risici på grund af dens specifikke karakteristika og derfor ikke bør klassificeres som en AI-model til almen brug med systemisk risiko.
3. Hvis Kommissionen konkluderer, at de argumenter, der er fremsat i henhold til stk. 2, ikke er tilstrækkeligt underbyggede, og den relevante udbyder ikke har været i stand til at påvise, at AI-modellen til almen brug på grund af sine specifikke karakteristika ikke frembyder systemiske risici, afviser den disse argumenter, og AI-modellen til almen brug betragtes som en AI-model til almen brug med systemisk risiko.
4. Kommissionen kan udpege en AI-model til almen brug som frembydende systemiske risici på eget initiativ eller efter en kvalificeret varsling fra det videnskabelige panel i henhold til artikel 90, stk. 1, litra a) på grundlag af kriterierne i bilag XIII.
Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre bilag XIII ved at præcisere og ajourføre kriterierne i nævnte bilag.
5. Efter en begrundet anmodning fra en udbyder, hvis model er blevet udpeget som en AI-model til almen brug med systemisk risiko i henhold til stk. 4, tager Kommissionen hensyn til anmodningen og kan beslutte på ny at vurdere, om AI-modellen til almen brug stadig kan anses for at frembyde systemiske risici på grundlag af kriterierne i bilag XIII. En sådan anmodning skal indeholde objektive, detaljerede og nye grunde, der er kommet frem siden udpegelsesafgørelsen. Udbydere kan tidligst seks måneder efter udpegelsesafgørelsen anmode om en fornyet vurdering. Hvis Kommissionen efter sin fornyede vurdering beslutter at opretholde udpegelsen som en AI-model til almen brug med systemisk risiko, kan udbyderne tidligst seks måneder efter denne afgørelse anmode om en fornyet vurdering.
6. Kommissionen sikrer, at der offentliggøres en liste over AI-modeller til almen brug med systemisk risiko, og ajourfører løbende denne liste, uden at det berører behovet for at overholde og beskytte intellektuelle ejendomsrettigheder og fortrolige forretningsoplysninger eller forretningshemmeligheder i overensstemmelse med EU-retten og national ret.
1. Udbydere af AI-modeller til almen brug skal:
a) udarbejde og løbende ajourføre den tekniske dokumentation til modellen, herunder dens trænings- og afprøvningsproces og resultaterne af evalueringen af den, som mindst skal indeholde de oplysninger, der er fastsat i bilag XI, med henblik på efter anmodning at forelægge den for AI-kontoret og de nationale kompetente myndigheder
b) udarbejde og løbende ajourføre oplysninger og dokumentation og stille disse til rådighed for udbydere af AI-systemer, som har til hensigt at integrere AI-modellen til almen brug i deres AI-systemer. Uden at det berører behovet for at respektere og beskytte intellektuelle ejendomsrettigheder og fortrolige forretningsoplysninger eller forretningshemmeligheder i overensstemmelse med EU-retten og national ret, skal oplysningerne og dokumentationen:
i) give udbydere af AI-systemer mulighed for at få en god forståelse af kapaciteterne og begrænsningerne i AI-modellen til almen brug og overholde deres forpligtelser i henhold til denne forordning, og
ii) som minimum indeholde de i bilag XII fastsatte elementer
c) indføre en politik, der overholder EU-retten om ophavsret og beslægtede rettigheder, navnlig med henblik på at identificere og overholde, herunder ved hjælp af de nyeste teknologier, et forbehold vedrørende rettigheder, der udtrykkes i henhold til artikel 4, stk. 3, i direktiv (EU) 2019/790
d) udarbejde og offentliggøre en tilstrækkeligt detaljeret sammenfatning om det indhold, der anvendes til træning af AI-modellen til almen brug, i overensstemmelse med en skabelon, der leveres af AI-kontoret.
2. Forpligtelserne i stk. 1, litra a) og b), finder ikke anvendelse på udbydere af AI-modeller, der frigives i henhold til en gratis open source-licens, der giver mulighed for adgang til, anvendelse, ændring og distribution af modellen, og hvis parametre, herunder vægtene, oplysningerne om modelarkitekturen og oplysningerne om modelanvendelsen, gøres offentligt tilgængelige. Denne undtagelse finder ikke anvendelse på AI-modeller til almen brug med systemiske risici.
1. Før en AI-model til almen brug bringes i omsætning på EU-markedet, udnævner udbydere, der er etableret i tredjelande, ved skriftligt mandat en bemyndiget repræsentant, der er etableret i Unionen.
2. Udbyderen skal gøre det muligt for sin bemyndigede repræsentant at udføre de opgaver, der er fastsat i det mandat, vedkommende har modtaget fra udbyderen.
3. Den bemyndigede repræsentant udfører de opgaver, der er fastsat i det mandat, vedkommende har modtaget fra udbyderen. Vedkommende skal på anmodning give AI-kontoret en kopi af mandatet på et af EU-institutionernes officielle sprog. Med henblik på denne forordning sætter mandatet den bemyndigede repræsentant i stand til at udføre følgende opgaver:
a) kontrollere, at den tekniske dokumentation, der er omhandlet i bilag XI, er udarbejdet, og at alle de forpligtelser, der er omhandlet i artikel 53 og, hvis det er relevant, artikel 55, er blevet opfyldt af udbyderen
b) opbevare en kopi af den tekniske dokumentation, der er omhandlet i bilag XI, så den står til rådighed for AI-kontoret og de nationale kompetente myndigheder, i en periode på ti år, efter at AI-modellen til almen brug er bragt i omsætning, og kontaktoplysningerne på den udbyder, der har udnævnt den bemyndigede repræsentant
c) efter en begrundet anmodning give AI-kontoret alle de oplysninger og al den dokumentation, herunder den, der er omhandlet i litra b), som kræves for at påvise overholdelse af forpligtelserne i dette kapitel
d) efter en begrundet anmodning samarbejde med AI-kontoret og de kompetente myndigheder om ethvert tiltag, som de foretager i forbindelse med AI-modellen til almen brug, herunder når modellen er integreret i AI-systemer, der bringes i omsætning eller ibrugtages i Unionen.
4. Mandatet giver den bemyndigede repræsentant, ud over eller i stedet for udbyderen, beføjelse til at modtage henvendelser fra AI-kontoret eller de kompetente myndigheder om alle spørgsmål relateret til at sikre overholdelse af denne forordning.
5. Den bemyndigede repræsentant bringer mandatet til ophør, hvis vedkommende mener eller har grund til at mene, at udbyderen handler i strid med sine forpligtelser i henhold til denne forordning. I så fald underretter vedkommende også omgående AI-kontoret om ophøret af mandatet og årsagerne hertil.
1. Ud over de forpligtelser, der er opført i artikel 53 og 54, skal udbydere af AI-modeller til almen brug med systemisk risiko:
a) foretage modelevaluering i overensstemmelse med standardiserede protokoller og værktøjer, der afspejler det aktuelle tekniske niveau, herunder gennemførelse og dokumentation af kontradiktorisk afprøvning af modellen med henblik på at identificere og afbøde systemiske risici
b) vurdere og afbøde mulige systemiske risici på EU-plan, herunder deres kilder, der kan skyldes udvikling, omsætning eller anvendelse af AI-modeller til almen brug med systemisk risiko
c) uden unødigt ophold følge, dokumentere og indberette relevante oplysninger om alvorlige hændelser og mulige korrigerende foranstaltninger til håndtering heraf til AI-kontoret og, alt efter hvad der er relevant, til de nationale kompetente myndigheder
d) sikre et tilstrækkeligt niveau af cybersikkerhedsbeskyttelse for AI-modellen til almen brug med systemisk risiko og modellens fysiske infrastruktur.
2. Udbydere af AI-modeller til almen brug med systemisk risiko kan basere sig på praksiskodekser som omhandlet i artikel 56 for at påvise overholdelse af forpligtelserne i nærværende artikels stk. 1, indtil der er offentliggjort en harmoniseret standard. Overholdelse af europæiske harmoniserede standarder giver udbydere formodning om overensstemmelse, i det omfang disse standarder dækker disse forpligtelser. Udbydere af AI-modeller til almen brug med systemiske risici, som ikke overholder en godkendt praksiskodeks, eller som ikke overholder en europæisk harmoniseret standard, skal påvise alternative passende måder for overensstemmelse med henblik på Kommissionens vurdering.
3. Alle de oplysninger eller al den dokumentation, der indhentes i henhold til denne artikel, herunder forretningshemmeligheder, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
1. AI-kontoret tilskynder til og letter udarbejdelsen af praksiskodekser på EU-plan for at bidrage til en korrekt anvendelse af denne forordning under hensyntagen til internationale tilgange.
2. AI-kontoret og AI-udvalget tilstræber at sikre, at praksiskodekserne som minimum omfatter de forpligtelser, der er fastsat i artikel 53 og 55, herunder følgende spørgsmål:
a) midlerne til at sikre, at de oplysninger, der er omhandlet i artikel 53, stk. 1, litra a) og b), holdes ajour i lyset af den markedsmæssige og teknologiske udvikling
b) resuméet af det indhold, der anvendes til uddannelse, er tilstrækkeligt detaljeret
c) identifikationen af typen og arten af de systemiske risici på EU-plan, herunder deres kilder, hvis det er relevant
d) foranstaltningerne, procedurerne og de nærmere bestemmelser for vurdering og styring af de systemiske risici på EU-plan, herunder dokumentation herfor, som skal stå i et rimeligt forhold til risiciene, tage hensyn til, hvor alvorlige og sandsynlige de er, og tage hensyn til de specifikke udfordringer i forbindelse med styringen af disse risici i lyset af de mulige måder, hvorpå sådanne risici kan opstå og vise sig i AI-værdikæden.
3. AI-kontoret kan opfordre alle udbydere af AI-modeller til almen brug samt relevante nationale kompetente myndigheder til at deltage i udarbejdelsen af praksiskodekser. Civilsamfundsorganisationer, industrien, den akademiske verden og andre relevante interessenter såsom downstreamudbydere og uafhængige eksperter kan støtte processen.
4. AI-kontoret og AI-udvalget tilstræber at sikre, at praksiskodekserne klart fastsætter deres specifikke mål og indeholder forpligtelser eller foranstaltninger, herunder i relevant omfang centrale resultatindikatorer, for at sikre realiseringen af disse mål, og at de tager behørigt hensyn til alle interesserede parters, herunder berørte personers, behov og interesser på EU-plan.
5. AI-kontoret tilstræber at sikre, at deltagerne i praksiskodekserne regelmæssigt aflægger rapport til AI-kontoret om gennemførelsen af forpligtelserne og de trufne foranstaltninger og deres resultater, herunder i relevant omfang målt i forhold til de centrale resultatindikatorer. De centrale resultatindikatorer og rapporteringsforpligtelserne skal afspejle forskelle i størrelse og kapacitet mellem de forskellige deltagere.
1. Medlemsstaterne sikrer, at deres kompetente myndigheder opretter mindst én reguleringsmæssig AI-sandkasse på nationalt plan, som skal være operationel senest den 2. august 2026. Denne sandkasse kan også oprettes i fællesskab med andre medlemsstaters kompetente myndigheder. Kommissionen kan yde teknisk støtte, rådgivning og værktøjer til oprettelse og drift af reguleringsmæssige AI-sandkasser.
Forpligtelsen i henhold til første afsnit kan også opfyldes ved deltagelse i en eksisterende sandkasse, for så vidt som denne deltagelse giver de deltagende medlemsstater et tilsvarende nationalt dækningsniveau.
2. Der kan også oprettes yderligere reguleringsmæssige AI-sandkasser på regionalt eller lokalt plan eller i fællesskab med andre medlemsstaters kompetente myndigheder.
3. Den Europæiske Tilsynsførende for Databeskyttelse kan også oprette en reguleringsmæssig AI-sandkasse for EU-institutioner, -organer, -kontorer og -agenturer og varetage de nationale kompetente myndigheders roller og opgaver i overensstemmelse med dette kapitel.
4. Medlemsstaterne sikrer, at de kompetente myndigheder, der er omhandlet i stk. 1 og 2, tildeler tilstrækkelige ressourcer til, at denne artikel overholdes effektivt og rettidigt. Hvis det er relevant, samarbejder de nationale kompetente myndigheder med andre relevante myndigheder og kan gøre det muligt at inddrage andre aktører i AI-økosystemet. Denne artikel berører ikke andre reguleringsmæssige sandkasser, der er oprettet i henhold til EU-retten eller national ret. Medlemsstaterne sikrer et passende samarbejde mellem de myndigheder, der fører tilsyn med disse andre sandkasser, og de nationale kompetente myndigheder.
5. Reguleringsmæssig AI-sandkasser, der oprettes i henhold til stk. 1, skal tilvejebringe et kontrolleret miljø, der fremmer innovation og letter udvikling, træning, afprøvning og validering af innovative AI-systemer i et begrænset tidsrum, inden de bringes i omsætning eller tages i brug i henhold til en specifik sandkasseplan, som aftales mellem udbyderne eller de potentielle udbydere og den kompetente myndighed. Sådanne sandkasser kan omfatte afprøvning under faktiske forhold under tilsyn i sandkasserne.
6. De kompetente myndigheder yder, alt efter hvad der er relevant, vejledning, tilsyn og støtte inden for den reguleringsmæssige AI-sandkasse med henblik på at identificere risici, navnlig for grundlæggende rettigheder, sundhed og sikkerhed, afprøvning, afbødende foranstaltninger og deres effektivitet i forbindelse med forpligtelserne og kravene i denne forordning og, hvis det er relevant, anden EU-ret og national ret, der føres tilsyn med inden for sandkassen.
7. De kompetente myndigheder giver udbydere og potentielle udbydere, der deltager i den reguleringsmæssige AI-sandkasse, vejledning om reguleringsmæssige forventninger og om, hvordan de opfylder de krav og forpligtelser, der er fastsat i denne forordning.
1. For at undgå fragmentering i Unionen vedtager Kommissionen gennemførelsesretsakter, der fastsætter de nærmere ordninger for oprettelse, udvikling, gennemførelse, drift af og tilsyn med de reguleringsmæssige AI-sandkasser. Gennemførelsesretsakterne skal omfatte fælles principper vedrørende følgende punkter:
a) støtteberettigelse og udvælgelseskriterier med henblik på deltagelse i den reguleringsmæssige AI-sandkasse
b) procedurer for anvendelse, deltagelse, overvågning, udtræden fra og afslutning af den reguleringsmæssige AI-sandkasse, herunder sandkasseplanen og slutrapporten
c) hvilke vilkår og betingelser der gælder for deltagerne.
Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
2. De i stk. 1 omhandlede gennemførelsesretsakter skal sikre:
a) at reguleringsmæssige AI-sandkasser er åbne for enhver ansøgende udbyder eller potentiel udbyder af et AI-system, som opfylder støtteberettigelses- og udvælgelseskriterierne, som skal være gennemsigtige og fair, og at de nationale kompetente myndigheder underretter ansøgerne om deres afgørelse senest tre måneder efter ansøgningen
b) at reguleringsmæssige AI-sandkasser giver bred og lige adgang og holder trit med efterspørgslen efter deltagelse; udbydere og potentielle udbydere kan også indgive ansøgninger i partnerskab med idriftsættere eller andre relevante tredjeparter
c) at de nærmere ordninger for og betingelser vedrørende reguleringsmæssige AI-sandkasser i videst mulig udstrækning støtter fleksibilitet for nationale kompetente myndigheder til at oprette og drive deres reguleringsmæssige AI-sandkasser
d) at adgang til de reguleringsmæssige AI-sandkasser er gratis for SMV'er, herunder iværksættervirksomheder, uden at det berører ekstraordinære omkostninger, som de nationale kompetente myndigheder kan få dækket på fair og forholdsmæssig vis
1. I den reguleringsmæssige AI-sandkasse må personoplysninger, der er lovligt indsamlet til andre formål, kun behandles med henblik på udvikling, træning og afprøvning af visse AI-systemer i sandkassen, når alle følgende betingelser er opfyldt:
a) AI-systemer skal udvikles med henblik på beskyttelse af væsentlige samfundsinteresser, der varetages af en offentlig myndighed eller anden fysisk eller juridisk person, og på et eller flere af følgende områder:
i) den offentlige sikkerhed og folkesundheden, herunder opsporing af sygdomme, diagnoser, forebyggelse, overvågning og behandling samt forbedring af sundhedssystemerne
ii) et højt beskyttelsesniveau og forbedring af miljøkvaliteten, beskyttelse af biodiversiteten, beskyttelse mod forurening, foranstaltninger vedrørende den grønne omstilling, foranstaltninger vedrørende modvirkning af og tilpasning til klimaændringer
iii) energibæredygtighed
iv) sikkerhed og modstandsdygtighed i transportsystemerne og mobilitet, kritisk infrastruktur og netværk
v) effektivitet og kvalitet i den offentlige forvaltning og offentlige tjenester
b) de behandlede oplysninger skal være nødvendige for at overholde et eller flere af de krav, der er omhandlet i kapitel III, afdeling 2, såfremt disse krav ikke praktisk kan opfyldes ved behandling af anonymiserede eller syntetiske oplysninger eller andre oplysninger end personoplysninger
c) der skal foreligge effektive overvågningsmekanismer til at konstatere, om der kan opstå høje risici for de registreredes rettigheder og frihedsrettigheder, som omhandlet i artikel 35 i forordning (EU) 2016/679 og artikel 39 i forordning (EU) 2018/1725, i forbindelse med forsøgene i sandkassen, samt beredskabsmekanismer til straks at afbøde disse risici og om nødvendigt standse behandlingen
1. Afprøvning af højrisiko-AI-systemer under faktiske forhold uden for reguleringsmæssige AI-sandkasser kan udføres af udbydere eller potentielle udbydere af højrisiko-AI-systemer, der er opført i bilag III, i overensstemmelse med denne artikel og den plan for afprøvning under faktiske forhold, der er omhandlet i denne artikel, uden at det berører forbuddene i henhold til artikel 5.
Kommissionen præciserer ved hjælp af gennemførelsesretsakter de nærmere elementer i planen for afprøvning under faktiske forhold. Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
Nærværende stykke berører ikke EU-ret eller national ret om afprøvning under faktiske forhold af højrisiko-AI-systemer i forbindelse med produkter, der er omfattet af EU-harmoniseringslovgivningen, der er opført i bilag I.
2. Udbydere eller potentielle udbydere kan selv eller i partnerskab med en eller flere idriftsættere eller potentielle idriftsættere gennemføre afprøvning af de højrisiko-AI-systemer, der er omhandlet i bilag III, under faktiske forhold på et hvilket som helst tidspunkt, inden AI-systemet bringes i omsætning eller ibrugtages.
3. Afprøvning af højrisiko-AI-systemer under faktiske forhold i henhold til denne artikel berører ikke enhver anden etisk gennemgang, der er påkrævet i henhold til EU-retten eller national ret.
4. Udbydere eller potentielle udbydere må kun udføre afprøvningen under faktiske forhold, hvis alle følgende betingelser er opfyldt:
a) udbyderen eller den potentielle udbyder har udarbejdet en plan for afprøvning under faktiske forhold og forelagt den for markedsovervågningsmyndigheden i den medlemsstat, hvor afprøvningen skal udføres under faktiske forhold
b) markedsovervågningsmyndigheden i den medlemsstat, hvor afprøvningen under faktiske forhold skal udføres, har godkendt afprøvningen under faktiske forhold og planen for afprøvning under faktiske forhold; hvis markedsovervågningsmyndigheden ikke har givet et svar inden for 30 dage, betragtes afprøvningen under faktiske forhold og planen for afprøvning under faktiske forhold som godkendt; hvis national ret ikke indeholder bestemmelser om stiltiende godkendelse, skal der fortsat foreligge en tilladelse til afprøvning under faktiske forhold
c) udbyderen eller den potentielle udbyder med undtagelse af udbydere eller potentielle udbydere af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, 6 og 7, inden for retshåndhævelse, migrationsstyring, asylforvaltning og grænsekontrol, og af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2, har registreret afprøvningen under faktiske forhold i overensstemmelse med artikel 71, stk. 4, med et EU-dækkende unikt individuelt identifikationsnummer og de oplysninger, der er angivet i bilag IX; udbyderen eller den potentielle udbyder af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, 6 og 7, inden for retshåndhævelse, migrationsstyring, asylforvaltning og grænsekontrol, har registreret afprøvningen under faktiske forhold i den sikre ikkeoffentlige del af EU-databasen, jf. artikel 49, stk. 4, litra d), med et EU-dækkende unikt individuelt identifikationsnummer og de oplysninger, der er angivet i nævnte litra; udbyderen eller den potentielle udbyder af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2, har registreret afprøvningen under faktiske forhold i overensstemmelse med artikel 49, stk. 5
1. Med henblik på afprøvning under faktiske forhold i henhold til artikel 60 indhentes der frit informeret samtykke fra forsøgspersoner, inden de deltager i sådanne forsøg, og efter at de er blevet behørigt informeret med præcise, klare, relevante og forståelige oplysninger om:
a) afprøvningens art og formål under faktiske forhold, og hvilke mulige ulemper der kan være forbundet med deres deltagelse
b) de betingelser, hvorunder afprøvningen under faktiske forhold skal udføres, herunder den forventede varighed af forsøgspersonens eller forsøgspersonernes deltagelse
c) deres rettigheder og garantier for så vidt angår deres deltagelse, navnlig deres ret til at nægte at deltage i og retten til når som helst at trække sig tilbage fra afprøvningen under faktiske forhold, uden at det medfører ulemper, og uden at der skal gives nogen begrundelse herfor
d) ordninger for anmodning om omgørelse eller tilsidesættelse af AI-systemets forudsigelser, anbefalinger eller beslutninger
e) det EU-dækkende unikke individuelle identifikationsnummer for afprøvningen under faktiske forhold i overensstemmelse med artikel 60, stk. 4, litra c), og kontaktoplysninger på den udbyder eller dennes retlige repræsentant, hos hvem der kan indhentes yderligere oplysninger.
2. Det informerede samtykke dateres og dokumenteres, og der gives en kopi til forsøgspersonerne eller deres retlige repræsentant.
1. Medlemsstaterne skal foretage følgende tiltag:
a) give SMV'er, herunder iværksættervirksomheder, der har vedtægtsmæssigt hjemsted eller en filial i Unionen, prioriteret adgang til de reguleringsmæssige AI-sandkasser, i det omfang de opfylder deltagelsesbetingelserne og udvælgelseskriterierne; den prioriterede adgang afskærer ikke andre SMV'er, herunder iværksættervirksomheder, end dem, der er omhandlet i dette stykke, fra at få adgang til den reguleringsmæssige AI-sandkasse, forudsat at de også opfylder deltagelsesbetingelserne og udvælgelseskriterierne
b) organisere specifikke oplysnings- og uddannelsesaktiviteter om anvendelsen af denne forordning, der er skræddersyet til behovene hos SMV'er, herunder iværksættervirksomheder, idriftsættere og, alt efter hvad der er relevant, lokale offentlige myndigheder
c) benytte eksisterende særlige kanaler og, hvis det er relevant, etablere nye kanaler til kommunikation med SMV'er, herunder iværksættervirksomheder, idriftsættere, andre innovatorer og, alt efter hvad der er relevant, lokale offentlige myndigheder for at yde rådgivning og besvare forespørgsler om gennemførelsen af denne forordning, herunder for så vidt angår deltagelse i reguleringsmæssige AI-sandkasser
d) lette SMV'ers og andre relevante interessenters deltagelse i standardiseringsudviklingsprocessen.
2. Der tages hensyn til SMV-udbyderes, herunder iværksættervirksomheder, særlige interesser og behov ved fastsættelsen af gebyrerne for overensstemmelsesvurdering i henhold til artikel 43, idet gebyrerne nedsættes i forhold til deres størrelse, markedsstørrelse og andre relevante indikatorer.
3. AI-kontoret skal foretage følgende tiltag:
a) tilvejebringe standardiserede skabeloner for de områder, der er omfattet af denne forordning, som angivet af AI-udvalget i dets anmodning
b) udvikle og vedligeholde en fælles informationsplatform, der giver alle operatører i hele Unionen letanvendelige oplysninger i forbindelse med denne forordning
1. Mikrovirksomheder som omhandlet i henstilling 2003/361/EF kan overholde visse elementer i det kvalitetsstyringssystem, der kræves i henhold til denne forordnings artikel 17, på en forenklet måde, forudsat at de ikke har partnervirksomheder eller tilknyttede virksomheder som omhandlet i nævnte henstilling. Med henblik herpå udvikler Kommissionen retningslinjer for de elementer i kvalitetsstyringssystemet, der kan overholdes på en forenklet måde under hensyntagen til mikrovirksomhedernes behov uden at påvirke beskyttelsesniveauet eller behovet for overholdelse af kravene til højrisiko-AI-systemer.
2. Denne artikels stk. 1 skal ikke fortolkes således, at det fritager disse operatører for at opfylde andre krav eller forpligtelser, der er fastsat i denne forordning, herunder dem, der er fastsat i artikel 9, 10, 11, 12, 13, 14, 15, 72 og 73.
1. Kommissionen udvikler EU-ekspertise og -kapacitet inden for AI gennem AI-kontoret.
2. Medlemsstaterne letter de opgaver, der overdrages til AI-kontoret, som afspejlet i denne forordning.
1. Der oprettes herved et Europæisk Udvalg for Kunstig Intelligens (»AI-udvalget«).
2. AI-udvalget består af én repræsentant pr. medlemsstat. Den Europæiske Tilsynsførende for Databeskyttelse deltager som observatør. AI-kontoret deltager også i AI-udvalgets møder uden at deltage i afstemningerne. AI-udvalget kan indbyde andre nationale myndigheder, organer eller eksperter og EU-myndigheder, -organer eller -eksperter til møderne fra sag til sag, hvis de spørgsmål, der drøftes, er relevante for dem.
3. Hver repræsentant udpeges af deres medlemsstat for en periode på tre år, der kan forlænges én gang.
4. Medlemsstaterne sikrer, at deres repræsentanter i AI-udvalget:
a) har de relevante kompetencer og beføjelser i deres medlemsstat til at kunne bidrage aktivt til udførelsen af AI-udvalgets opgaver, der er omhandlet i artikel 66
b) udpeges som eneste kontaktpunkt for AI-udvalget og, hvis det er relevant, idet der tages hensyn til medlemsstaternes behov, som eneste kontaktpunkt for interessenter
c) har beføjelse til at lette sammenhæng og koordinering mellem de nationale kompetente myndigheder i deres medlemsstat for så vidt angår gennemførelsen af denne forordning, herunder gennem indsamling af relevante data og oplysninger med henblik på udførelse af deres opgaver i AI-udvalget.
5. De udpegede repræsentanter for medlemsstaterne vedtager AI-udvalgets forretningsorden med to tredjedeles flertal. Forretningsordenen fastlægger navnlig procedurer for udvælgelsesprocessen, varigheden af mandatet for og en beskrivelse af formandskabets opgaver, de nærmere afstemningsordninger og tilrettelæggelsen af AI-udvalgets og dets undergruppers aktiviteter.
6. AI-udvalget opretter to stående undergrupper for at tilvejebringe en platform for samarbejde og udveksling mellem markedsovervågningsmyndighederne og underretning af myndigheder om spørgsmål vedrørende henholdsvis markedsovervågning og bemyndigede organer.
Den stående undergruppe for markedsovervågning bør fungere som den administrative samarbejdsgruppe (ADCO) i forbindelse med denne forordning som omhandlet i artikel 30 i forordning (EU) 2019/1020.
AI-udvalget kan i relevant omfang nedsætte andre stående eller midlertidige undergrupper med henblik på at behandle specifikke spørgsmål. Hvis det er relevant, kan repræsentanter for det rådgivende forum omhandlet i artikel 67 indbydes til sådanne undergrupper eller til specifikke møder i disse undergrupper som observatører.
AI-udvalget rådgiver og bistår Kommissionen og medlemsstaterne med henblik på at lette en ensartet og effektiv anvendelse af denne forordning. Med henblik herpå kan AI-udvalget navnlig:
a) bidrage til koordineringen mellem de nationale kompetente myndigheder, der er ansvarlige for anvendelsen af denne forordning, og i samarbejde og efter aftale med de pågældende markedsovervågningsmyndigheder støtte markedsovervågningsmyndigheders fælles aktiviteter, der er omhandlet i artikel 74, stk. 11
b) indsamle og udveksle teknisk og reguleringsmæssig ekspertise og bedste praksis blandt medlemsstaterne
c) yde rådgivning om gennemførelsen af denne forordning, navnlig med hensyn til håndhævelsen af reglerne om AI-modeller til almen brug
d) bidrage til harmonisering af administrative former for praksis i medlemsstaterne, herunder i forbindelse med undtagelsen fra de overensstemmelsesvurderingsprocedurer, der er omhandlet i artikel 46, reguleringsmæssige AI-sandkassers funktion og afprøvning under faktiske forhold, der er omhandlet i artikel 57, 59 og 60
e) på anmodning af Kommissionen eller på eget initiativ fremsætte henstillinger og afgive skriftlige udtalelser om alle relevante spørgsmål vedrørende gennemførelsen af denne forordning og dens ensartede og effektive anvendelse, herunder:
i) om udarbejdelse og anvendelse af adfærdskodekser og praksiskodekser i henhold til denne forordning samt af Kommissionens retningslinjer
ii) evalueringen og revisionen af denne forordning i medfør af artikel 112, herunder for så vidt angår de indberetninger af alvorlige hændelser, der er omhandlet i artikel 73, og funktionen af den EU-database, der er omhandlet i artikel 71, udarbejdelsen af delegerede retsakter eller gennemførelsesretsakter og for så vidt angår eventuelle tilpasninger af denne forordning til den EU-harmoniseringslovgivning, der er opført i bilag I
iii) om tekniske specifikationer eller eksisterende standarder vedrørende de i kapitel III, afdeling 2, fastsatte krav
1. Der oprettes et rådgivende forum til at yde teknisk ekspertise til og rådgive AI-udvalget og Kommissionen og bidrage til deres opgaver i henhold til denne forordning.
2. Det rådgivende forums medlemmer skal repræsentere et afbalanceret udvalg af interessenter, herunder industrien, iværksættervirksomheder, SMV'er, civilsamfundet og den akademiske verden. Der skal være balance mellem det rådgivende forums medlemmer med hensyn til kommercielle og ikkekommercielle interesser og inden for kategorien af kommercielle interesser med hensyn til SMV'er og andre virksomheder.
3. Kommissionen udpeger medlemmerne af det rådgivende forum i overensstemmelse med kriterierne i stk. 2 blandt interessenter med anerkendt ekspertise inden for AI.
4. Mandatperioden for medlemmerne af det rådgivende forum er to år, som kan forlænges med højst fire år.
5. Agenturet for Grundlæggende Rettigheder, ENISA, Den Europæiske Standardiseringsorganisation (CEN), Den Europæiske Komité for Elektroteknisk Standardisering (Cenelec) og Det Europæiske Standardiseringsinstitut for Telekommunikation (ETSI) er permanente medlemmer af det rådgivende forum.
6. Det rådgivende forum fastsætter selv sin forretningsorden. Det vælger to medformænd blandt sine medlemmer i overensstemmelse med kriterierne i stk. 2. Medformændenes mandatperiode er på to år og kan forlænges én gang.
7. Det rådgivende forum afholder møder mindst to gange om året. Det rådgivende forum kan indbyde eksperter og andre interessenter til sine møder.
8. Det rådgivende forum kan udarbejde udtalelser, anbefalinger og skriftlige bidrag på anmodning af AI-udvalget eller Kommissionen.
9. Det rådgivende forum kan oprette stående eller midlertidige underudvalg, alt efter hvad der er relevant med henblik på undersøgelse af specifikke spørgsmål vedrørende denne forordnings formål.
10. Det rådgivende forum udarbejder en årlig rapport om sine aktiviteter. Denne rapport offentliggøres.
1. Kommissionen fastsætter ved hjælp af en gennemførelsesretsakt bestemmelser om oprettelse af et videnskabeligt panel af uafhængige eksperter (»det videnskabelige panel«), der skal støtte håndhævelsesaktiviteterne i henhold til denne forordning. Denne gennemførelsesretsakt vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
2. Det videnskabelige panel skal bestå af eksperter, der udvælges af Kommissionen på grundlag af den ajourførte videnskabelige eller tekniske ekspertise inden for AI, der er nødvendig med henblik på de opgaver, der er fastsat i stk. 3, og skal kunne påvise, at alle følgende betingelser er opfyldt:
a) særlig ekspertise og kompetence og videnskabelig eller teknisk ekspertise inden for AI
b) uafhængighed af udbydere af AI-systemer eller AI-modeller til almen brug
c) evne til at udføre aktiviteter omhyggeligt, nøjagtigt og objektivt.
Kommissionen fastsætter i samråd med AI-udvalget antallet af eksperter i panelet i overensstemmelse med de nødvendige behov og sikrer en fair kønsmæssig og geografisk repræsentation.
3. Det videnskabelige panel rådgiver og støtter AI-kontoret, navnlig med hensyn til følgende opgaver:
a) støtte gennemførelsen og håndhævelsen af denne forordning for så vidt angår AI-modeller og -systemer til almen brug, navnlig ved at:
i) varsle AI-kontoret om mulige systemiske risici på EU-plan ved AI-modeller til almen brug i overensstemmelse med artikel 90
ii) bidrage til udvikling af værktøjer og metoder til at evaluere kapaciteterne i AI-modeller og -systemer til almen brug, herunder gennem benchmarks
iii) yde rådgivning om klassificering af AI-modeller til almen brug med systemisk risiko
iv) yde rådgivning om klassificering af forskellige AI-modeller og -systemer til almen brug
1. Medlemsstaterne kan anmode eksperter i det videnskabelige panel om at støtte deres håndhævelsesaktiviteter i henhold til denne forordning.
2. Medlemsstaterne kan pålægges at betale gebyrer for den rådgivning og støtte, som eksperterne yder. Gebyrernes struktur og størrelse samt størrelsen og strukturen af de omkostninger, der kan kræves erstattet, fastsættes i den gennemførelsesretsakt, der er omhandlet i artikel 68, stk. 1, under hensyntagen til målene om en passende gennemførelse af denne forordning, omkostningseffektivitet og nødvendigheden af at sikre, at alle medlemsstater har effektiv adgang til eksperter.
3. Kommissionen letter medlemsstaternes rettidige adgang til eksperterne efter behov og sikrer, at kombinationen af støtteaktiviteter, som udføres af EU-AI-afprøvningsstøtte i henhold til artikel 84, og eksperter i henhold til nærværende artikel tilrettelægges effektivt og giver den bedst mulige merværdi.
1. Hver medlemsstat opretter eller udpeger som nationale kompetente myndigheder mindst én bemyndigende myndighed og mindst én markedsovervågningsmyndighed med henblik på denne forordning. Disse nationale kompetente myndigheder udøver deres beføjelser uafhængigt, upartisk og uden bias for derved at beskytte objektiviteten i deres aktiviteter og opgaver og for at sikre anvendelsen og gennemførelsen af denne forordning. Medlemmerne af disse myndigheder afholder sig fra ethvert tiltag, som er uforenelig med deres hverv. Forudsat at disse principper overholdes, kan sådanne aktiviteter og opgaver udføres af en eller flere udpegede myndigheder i overensstemmelse med medlemsstatens organisatoriske behov.
2. Medlemsstaterne meddeler Kommissionen identiteten af de bemyndigende myndigheder og markedsovervågningsmyndighederne og disse myndigheders opgaver samt eventuelle efterfølgende ændringer heraf. Medlemsstaterne offentliggør senest den 2. august 2025 oplysninger om, hvordan de kompetente myndigheder og de centrale kontaktpunkter kan kontaktes ved hjælp af elektroniske kommunikationsmidler. Medlemsstaterne udpeger en markedsovervågningsmyndighed til at fungere som centralt kontaktpunkt for denne forordning og underretter Kommissionen om identiteten af det centrale kontaktpunkt. Kommissionen offentliggør en liste over de centrale kontaktpunkter.
3. Medlemsstaterne sikrer, at deres nationale kompetente myndigheder tilføres tilstrækkelige tekniske, finansielle og menneskelige ressourcer og infrastruktur, til at de kan udføre deres opgaver effektivt i henhold til denne forordning. De nationale kompetente myndigheder skal navnlig råde over et tilstrækkeligt antal medarbejdere på fast basis, hvis kompetencer og ekspertise spænder over en indgående forståelse af AI-teknologier, data og databehandling, beskyttelse af personoplysninger, cybersikkerhed, grundlæggende rettigheder, sundheds- og sikkerhedsrisici og viden om gældende standarder og retlige krav. Medlemsstaterne skal årligt vurdere og om nødvendigt ajourføre de kompetence- og ressourcebehov, der er omhandlet i dette stykke.
4. De nationale kompetente myndigheder skal træffe passende foranstaltninger for at sikre et tilstrækkeligt niveau af cybersikkerhed.
5. De nationale kompetente myndigheder handler i forbindelse med udførelsen af deres opgaver i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
6. Senest den 2. august 2025 og én gang hvert andet år derefter aflægger medlemsstaterne rapport til Kommissionen om status for de nationale kompetente myndigheders finansielle og menneskelige ressourcer med en vurdering af deres tilstrækkelighed. Kommissionen videresender disse oplysninger til AI-udvalget med henblik på drøftelse og eventuelle henstillinger.
1. Kommissionen opretter og vedligeholder i samarbejde med medlemsstaterne en EU-database med de i denne artikels stk. 2 og 3 omhandlede oplysninger vedrørende højrisiko-AI-systemer, jf. artikel 6, stk. 2, som er registreret i overensstemmelse med artikel 49 og 60, og AI-systemer, der ikke anses som højrisiko-AI-systemer i henhold til artikel 6, stk. 3, og som er registeret i overensstemmelse med artikel 6, stk. 4, og artikel 49. Ved fastsættelsen af funktionsspecifikationerne for en sådan database hører Kommissionen de relevante eksperter og, når den ajourfører funktionsspecifikationerne for en sådan database, hører Kommissionen AI-udvalget.
2. De data, der er anført i bilag VIII, afsnit A og B, indlæses i EU-databasen af udbyderen eller, hvis det er relevant, af den bemyndigede repræsentant.
3. De data, der er anført i bilag VIII, afsnit C, indlæses i EU-databasen af den idriftsætter, som er eller handler på vegne af en offentlig myndighed eller et offentligt agentur eller organ i overensstemmelse med artikel 49, stk. 3 og 4.
4. Med undtagelse af det afsnit, der er omhandlet i artikel 49, stk. 4, og artikel 60, stk. 4, litra c), skal oplysningerne i EU-databasen, der er registreret i overensstemmelse med artikel 49, kunne tilgås og være offentligt tilgængelige på en brugervenlig måde. Oplysningerne bør være lette at finde rundt i og maskinlæsbare. De oplysninger, der registreres i overensstemmelse med artikel 60, må kun være tilgængelige for markedsovervågningsmyndighederne og Kommissionen, medmindre den potentielle udbyder eller udbyderen har givet sit samtykke til, at oplysningerne også gøres tilgængelige for offentligheden.
5. EU-databasen må kun indeholde personoplysninger, i det omfang det er nødvendigt for at indsamle og behandle oplysninger i overensstemmelse med denne forordning. Disse oplysninger omfatter navne og kontaktoplysninger på de fysiske personer, der er ansvarlige for registrering af systemet og har retlig beføjelse til at repræsentere udbyderen eller idriftsætteren, alt efter hvad der er relevant.
6. Kommissionen er dataansvarlig for EU-databasen. Den stiller tilstrækkelig teknisk og administrativ støtte til rådighed for udbydere, potentielle udbydere og idriftsættere. EU-databasen skal overholde gældende tilgængelighedskrav.
1. Udbyderne skal oprette og dokumentere et system til overvågning efter omsætningen på en måde, der står i et rimeligt forhold til arten af AI-teknologierne og risiciene ved højrisiko-AI-systemet.
2. Systemet til overvågning efter omsætningen indsamler, dokumenterer og analyserer relevante data, som idriftsætterne kan afgive, eller som kan indsamles via andre kilder, om højrisiko-AI-systemers ydeevne i hele deres levetid, og som giver udbyderen mulighed for at evaluere, at AI-systemerne løbende overholder de i kapitel III, afdeling 2, fastsatte krav. Hvis det er relevant, skal overvågning efter omsætningen omfatte en analyse af interaktionen med andre AI-systemer. Denne forpligtelse omfatter ikke følsomme operationelle data om idriftsættere, som er retshåndhævende myndigheder.
3. Systemet til overvågning efter omsætningen skal baseres på en plan for overvågning efter omsætningen. Planen for overvågning efter omsætningen skal være en del af den tekniske dokumentation, der er omhandlet i bilag IV. Kommissionen vedtager senest den 2. februar 2026 en gennemførelsesretsakt om detaljerede bestemmelser om en model for planen for overvågning efter omsætningen og listen over elementer, der skal indgå i planen. Denne gennemførelsesretsakt vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
4. For højrisiko-AI-systemer, der er omfattet af EU-harmoniseringslovgivningen, som er opført i bilag I, afsnit A, hvor der allerede er etableret et system til og en plan for overvågning efter omsætningen i henhold til nævnte lovgivning, skal udbyderne med henblik på at sikre sammenhæng, undgå overlap og minimere yderligere byrder have mulighed for, alt efter hvad der er relevant, at integrere de nødvendige elementer, der er beskrevet i stk. 1, 2 og 3, ved hjælp af den model, der er omhandlet i stk. 3, i allerede eksisterende systemer og planer i henhold til nævnte lovgivning, forudsat at dette opnår et tilsvarende beskyttelsesniveau.
Dette stykkes første afsnit finder også anvendelse på de i bilag III, punkt 5, omhandlede højrisiko-AI-systemer, der bringes i omsætning eller ibrugtages af finansielle institutioner, som er underlagt krav i henhold til EU-retten om finansielle tjenesteydelser for så vidt angår deres interne ledelse, ordninger eller processer.
1. Udbydere af højrisiko-AI-systemer, der bringes i omsætning på EU-markedet, indberetter enhver alvorlig hændelse til markedsovervågningsmyndighederne i de medlemsstater, hvor denne hændelse fandt sted.
2. Den i stk. 1 omhandlede indberetning foretages umiddelbart efter, at udbyderen har fastslået en årsagssammenhæng mellem AI-systemet og den alvorlige hændelse eller en rimelig sandsynlighed for en sådan sammenhæng, og under alle omstændigheder senest 15 dage efter, at udbyderen eller, hvor det er relevant, idriftsætteren har fået kendskab til den alvorlige hændelse.
I den i først afsnit omhandlede frist for indberetning tages der hensyn til den alvorlige hændelses alvor.
3. Uanset denne artikels stk. 2 forelægges den i denne artikels stk. 1 omhandlede rapport i tilfælde af en udbredt overtrædelse eller en alvorlig hændelse som defineret i artikel 3, nr. 49), litra b), omgående og senest to dage efter, at udbyderen eller, hvis det er relevant, idriftsætteren har fået kendskab til den pågældende hændelse.
4. Uanset stk. 2 forelægges rapporten i tilfælde af en persons dødsfald umiddelbart efter, at udbyderen eller idriftsætteren har fastslået, eller så snart vedkommende har mistanke om en årsagssammenhæng mellem højrisiko-AI-systemet og den alvorlige hændelse, og senest ti dage efter den dato, hvor udbyderen eller, hvis det er relevant, idriftsætteren har fået kendskab til den alvorlige hændelse.
5. Udbyderen eller, hvis det er relevant, idriftsætteren kan om nødvendigt for at sikre rettidig indberetning forelægge en indledende rapport, som ikke er fyldestgørende, efterfulgt af en fyldestgørende rapport.
6. Efter indberetning af en alvorlig hændelse i henhold til stk. 1 skal udbyderen straks foretage de nødvendige undersøgelser vedrørende den alvorlige hændelse og det pågældende AI-system. Dette omfatter en risikovurdering af hændelsen og korrigerende tiltag.
Udbyderen samarbejder med de kompetente myndigheder og, hvis det er relevant, med det berørte bemyndigede organ under de undersøgelser, der er omhandlet i første afsnit, og må ikke foretage nogen undersøgelse, der medfører ændringer af det pågældende AI-system på en sådan måde, at det kan påvirke en efterfølgende evaluering af årsagerne til hændelsen, uden først at orientere de kompetente myndigheder om et sådant tiltag.
7. Når den relevante markedsovervågningsmyndighed modtager en indberetning vedrørende en alvorlig hændelse omhandlet i artikel 3, nr. 49), litra c), underretter den de nationale offentlige myndigheder eller organer, der er omhandlet i artikel 77, stk. 1. Kommissionen udarbejder særlig vejledning for at lette overholdelsen af forpligtelserne i nærværende artikels stk. 1. Denne vejledning udstedes senest den 2. august 2025 og vurderes regelmæssigt.
1. Forordning (EU) 2019/1020 finder anvendelse på AI-systemer, der er omfattet af nærværende forordning. Med henblik på effektiv håndhævelse af nærværende forordning gælder følgende:
a) enhver henvisning til en erhvervsdrivende i henhold til forordning (EU) 2019/1020 skal forstås således, at den omfatter alle operatører, der er omfattet af nærværende forordnings artikel 2, stk. 1
b) enhver henvisning til et produkt i henhold til forordning (EU) 2019/1020 skal forstås således, at den omfatter alle AI-systemer, der henhører under nærværende forordnings anvendelsesområde.
2. Som led i deres rapporteringsforpligtelser i henhold til artikel 34, stk. 4, i forordning (EU) 2019/1020 aflægger markedsovervågningsmyndighederne årligt rapport til Kommissionen og de relevante nationale konkurrencemyndigheder i forbindelse med markedsovervågningsaktiviteter, som kan være af potentiel interesse for anvendelsen af EU-retten om konkurrenceregler. De aflægger også årligt rapport til Kommissionen om anvendelsen af forbudt praksis, der har fundet sted i løbet af det pågældende år, og om de foranstaltninger, der er truffet.
3. For så vidt angår højrisiko-AI-systemer, som er knyttet til produkter, der er omfattet af EU-harmoniseringslovgivningen, som er opført i bilag I, afsnit A, er markedsovervågningsmyndigheden med henblik på denne forordning den myndighed, der i henhold til disse retsakter er ansvarlig for markedsovervågningsaktiviteter.
Uanset første afsnit og under behørige omstændigheder kan medlemsstaterne udpege en anden relevant myndighed til at fungere som markedsovervågningsmyndighed, forudsat at de sikrer koordinering med de relevante sektorspecifikke markedsovervågningsmyndigheder, der er ansvarlige for håndhævelsen af den EU-harmoniseringslovgivning, der er opført i bilag I.
4. De procedurer, der er omhandlet i denne forordnings artikel 79-83, finder ikke anvendelse på AI-systemer, som er knyttet til produkter, der er omfattet af EU-harmoniseringslovgivningen, som er opført i bilag I, afsnit A, hvis sådanne retsakter allerede indeholder bestemmelser om procedurer, der sikrer et tilsvarende beskyttelsesniveau og har det samme formål. I sådanne tilfælde finder de relevante sektorprocedurer anvendelse i stedet.
5. Uden at det berører markedsovervågningsmyndighedernes beføjelser i henhold til artikel 14 i forordning (EU) 2019/1020, kan markedsovervågningsmyndighederne med henblik på at sikre en effektiv håndhævelse af nærværende forordning udøve de beføjelser, der er omhandlet i nævnte forordnings artikel 14, stk. 4, litra d) og j), på afstand, alt efter hvad der er relevant.
1. Hvis et AI-system er baseret på en AI-model til almen brug, og modellen og systemet er udviklet af den samme udbyder, har AI-kontoret beføjelser til at overvåge og føre tilsyn med, om det pågældende AI-system overholder kravene i denne forordning. For at varetage sine overvågnings- og tilsynsopgaver skal AI-kontoret have alle beføjelser som markedsovervågningsmyndighed, der er fastsat i denne afdeling og forordning (EU) 2019/1020.
2. Hvis de relevante markedsovervågningsmyndigheder har tilstrækkelig grund til at mene, at AI-systemer til almen brug, som kan anvendes direkte af idriftsættere til mindst ét formål, der er klassificeret som højrisiko i henhold til denne forordning, ikke overholder kravene i denne forordning, samarbejder de med AI-kontoret om at foretage evalueringer af overholdelsen og underretter AI-udvalget og andre markedsovervågningsmyndigheder i overensstemmelse hermed.
3. Hvis en markedsovervågningsmyndighed ikke er i stand til at afslutte sin undersøgelse af højrisiko-AI-systemet som følge af manglende adgang til visse oplysninger vedrørende AI-modellen til almen brug, selv om den har udfoldet alle de nødvendige bestræbelser på at indhente disse oplysninger, kan den fremsætte en begrundet anmodning til AI-kontoret, hvorved adgangen til disse oplysninger skal håndhæves. I dette tilfælde skal AI-kontoret straks og under alle omstændigheder inden for 30 dage give den anmodende myndighed alle oplysninger, som AI-kontoret anser for at være relevante for at fastslå, om et højrisiko-AI-system overholder gældende regler eller ej. Markedsovervågningsmyndighederne sikrer, at de oplysninger, som de kommer i besiddelse af, behandles fortroligt i overensstemmelse med denne forordnings artikel 78. Proceduren i kapitel VI i forordning (EU) 2019/1020 finder tilsvarende anvendelse.
1. Markedsovervågningsmyndighederne har kompetencer og beføjelser til at sikre, at afprøvning under faktiske forhold er i overensstemmelse med denne forordning.
2. Hvis der udføres afprøvning under faktiske forhold for AI-systemer, som der føres tilsyn med i den reguleringsmæssige AI-sandkasse i henhold til artikel 58, kontrollerer markedsovervågningsmyndighederne overholdelsen af artikel 60 som led i deres tilsynsrolle for den reguleringsmæssige AI-sandkasse. Disse myndigheder kan, alt efter hvad der er relevant, tillade, at afprøvningen under faktiske forhold udføres af udbyderen eller den potentielle udbyder som en undtagelse fra betingelserne i artikel 60, stk. 4, litra f) og g).
3. Hvis en markedsovervågningsmyndighed er blevet underrettet af den potentielle udbyder, udbyderen eller enhver tredjepart om en alvorlig hændelse eller har andre grunde til at mene, at betingelserne i artikel 60 og 61 ikke er opfyldt, kan den træffe en af følgende afgørelser på sit område, alt efter hvad der er relevant:
a) suspendere eller afslutte afprøvningen under faktiske forhold
b) kræve, at udbyderen eller den potentielle udbyder og idriftsætteren eller den potentielle idriftsætter ændrer et hvilket som helst aspekt af afprøvningen under faktiske forhold.
4. Hvis en markedsovervågningsmyndighed har truffet en afgørelse omhandlet i denne artikels stk. 3 eller har gjort indsigelse som omhandlet i artikel 60, stk. 4, litra b), skal afgørelsen eller indsigelsen indeholde en begrundelse herfor og angive, hvordan udbyderen eller den potentielle udbyder kan anfægte afgørelsen eller indsigelsen.
5. Hvis en markedsovervågningsmyndighed har truffet en afgørelse omhandlet i stk. 3, meddeler den, hvis det er relevant, begrundelsen herfor til markedsovervågningsmyndighederne i de andre medlemsstater, hvor AI-systemet er blevet afprøvet i overensstemmelse med planen for afprøvning.
1. Nationale offentlige myndigheder eller organer, der fører tilsyn med eller håndhæver overholdelsen af forpligtelser i henhold til EU-retten om beskyttelse af de grundlæggende rettigheder, herunder retten til beskyttelse mod forskelsbehandling, i forbindelse med anvendelsen af højrisiko-AI-systemer omhandlet i. bilag III har beføjelse til at anmode om og få adgang til al dokumentation, der er udarbejdet eller opretholdt i henhold til denne forordning, på et tilgængeligt sprog og i et tilgængeligt format, hvis adgang til denne dokumentation er nødvendig for effektivt at kunne udøve deres mandater inden for rammerne af deres jurisdiktion. Den relevante offentlige myndighed eller det relevante offentlige organ underretter markedsovervågningsmyndigheden i den pågældende medlemsstat om enhver sådan anmodning.
2. Senest den 2. november 2024 identificerer hver medlemsstat de offentlige myndigheder eller organer, der er omhandlet i stk. 1, og offentliggør en liste. Medlemsstaterne meddeler listen til Kommissionen og de øvrige medlemsstater og holder listen ajour.
3. Hvis den i stk. 1 omhandlede dokumentation er utilstrækkelig til at fastslå, om der er sket en tilsidesættelse af forpligtelser i henhold til den del af EU-retten, der beskytter de grundlæggende rettigheder, kan den offentlige myndighed eller det offentlige organ, der er omhandlet i stk. 1, fremsætte en begrundet anmodning til markedsovervågningsmyndigheden om at tilrettelægge afprøvning af højrisiko-AI-systemet ved hjælp af tekniske midler. Markedsovervågningsmyndigheden tilrettelægger afprøvningen med tæt inddragelse af den anmodende offentlige myndighed eller det anmodende offentlige organ inden for rimelig tid efter anmodningen.
4. Alle de oplysninger eller al den dokumentation, som de i denne artikels stk. 1 omhandlede nationale offentlige myndigheder eller organer kommer i besiddelse af i henhold til denne artikel, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
1. Kommissionen, markedsovervågningsmyndighederne og bemyndigede organer og enhver anden fysisk eller juridisk person, der er involveret i anvendelsen af denne forordning, respekterer i overensstemmelse med EU-retten eller national ret fortroligheden af oplysninger og data, som de kommer i besiddelse af under udførelsen af deres opgaver og aktiviteter, på en sådan måde, at de navnlig beskytter:
a) intellektuelle ejendomsrettigheder og fysiske eller juridiske personers fortrolige forretningsoplysninger eller forretningshemmeligheder, herunder kildekode, med undtagelse af de tilfælde, der er omhandlet i artikel 5 i Europa-Parlamentets og Rådets direktiv (EU) 2016/943
b) den effektive gennemførelse af denne forordning, navnlig for så vidt angår inspektioner, undersøgelser eller revisioner
c) offentlige og nationale sikkerhedsinteresser
d) strafferetlige eller administrative procedurers gennemførelse
e) informationer, der er klassificeret i henhold til EU-retten eller national ret.
2. De myndigheder, der er involveret i anvendelsen af denne forordning i henhold til stk. 1, må kun anmode om data, der er strengt nødvendige for at vurdere den risiko, som AI-systemer udgør, og for at udøve deres beføjelser i overensstemmelse med denne forordning og med forordning (EU) 2019/1020. De skal indføre passende og effektive cybersikkerhedsforanstaltninger for at beskytte sikkerheden og fortroligheden af de indsamlede oplysninger og data og slette de indsamlede data, så snart de ikke længere er nødvendige til det formål, som de blev indsamlet til, i overensstemmelse med gældende EU-ret eller national ret.
3. Uden at det berører stk. 1 og 2 må oplysninger, der udveksles fortroligt mellem de nationale kompetente myndigheder eller mellem de nationale kompetente myndigheder og Kommissionen, ikke videregives uden forudgående høring af den oprindelige nationale kompetente myndighed og idriftsætteren i tilfælde, hvor højrisiko-AI-systemer omhandlet i bilag III, punkt 1, 6 eller 7, anvendes af retshåndhævende myndigheder, grænsekontrolmyndigheder, indvandringsmyndigheder eller asylmyndigheder, og hvis en sådan videregivelse ville bringe offentlige og nationale sikkerhedsinteresser i fare. Denne udveksling af oplysninger omfatter ikke følsomme operationelle oplysninger i forbindelse med aktiviteter, der udføres af retshåndhævende myndigheder, grænsekontrolmyndigheder, indvandringsmyndigheder eller asylmyndigheder.
1. AI-systemer, der udgør en risiko, skal forstås som et »produkt, der udgør en risiko« som defineret i artikel 3, nr. 19), i forordning (EU) 2019/1020, for så vidt de udgør risici for sundhed eller sikkerhed eller for personers grundlæggende rettigheder.
2. Hvis en medlemsstats markedsovervågningsmyndighed har tilstrækkelig grund til at mene, at et AI-system udgør en risiko som omhandlet i denne artikels stk. 1, foretager den en evaluering af det pågældende AI-system for så vidt angår dets overholdelse af alle de krav og forpligtelser, der er fastsat i denne forordning. Der lægges særlig vægt på AI-systemer, der udgør en risiko for sårbare grupper. Hvis der identificeres risici for grundlæggende rettigheder, underretter markedsovervågningsmyndigheden også de relevante nationale offentlige myndigheder eller organer, der er omhandlet i artikel 77, stk. 1, og samarbejder fuldt ud med dem. De relevante operatører samarbejder om nødvendigt med markedsovervågningsmyndigheden og med de andre nationale offentlige myndigheder eller organer, der er omhandlet i artikel 77, stk. 1.
Hvis markedsovervågningsmyndigheden i forbindelse med evalueringen eller i givet fald i samarbejde med den nationale offentlige myndighed, der er omhandlet i artikel 77, stk. 1, konstaterer, at AI-systemet ikke overholder kravene og forpligtelserne i denne forordning, anmoder den uden unødigt ophold den pågældende operatør om at foretage alle fornødne korrigerende tiltag til at sørge for, at AI-systemet overholder kravene og forpligtelserne, tilbagetrække AI-systemet fra markedet eller tilbagekalde det inden for en tidsfrist, som markedsovervågningsmyndigheden kan fastsætte, og under alle omstændigheder inden for 15 arbejdsdage eller som fastsat i den relevante EU-harmoniseringslovgivning.
Markedsovervågningsmyndigheden skal underrette det relevante bemyndigede organ herom. Artikel 18 i forordning (EU) 2019/1020 finder anvendelse på de i dette stykkes andet afsnit omhandlede foranstaltninger.
3. Hvis markedsovervågningsmyndigheden konstaterer, at den manglende overholdelse ikke er begrænset til medlemsstatens område, underretter den uden unødigt ophold Kommissionen og de øvrige medlemsstater om resultaterne af evalueringen og om de tiltag, den har pålagt operatøren at foretage.
4. Operatøren sikrer, at der foretages alle fornødne korrigerende tiltag over for alle de pågældende AI-systemer, som denne har gjort tilgængelige EU-markedet.
5. Hvis AI-systemets operatør ikke foretager tilstrækkelige korrigerende tiltag inden for den frist, der er omhandlet i stk. 2, træffer markedsovervågningsmyndigheden de nødvendige foreløbige foranstaltninger til at forbyde eller begrænse, at AI-systemet gøres tilgængeligt på dens nationale marked eller ibrugtages, tilbagetrække produktet eller det selvstændige AI-system fra dette marked eller tilbagekalde det. Den pågældende myndighed giver uden unødigt ophold Kommissionen og de øvrige medlemsstater meddelelse om disse foranstaltninger.
1. Hvis en markedsovervågningsmyndighed har tilstrækkelig grund til at mene, at et AI-system, der af udbyderen er klassificeret som ikkehøjrisiko i henhold til artikel 6, stk. 3, faktisk er højrisiko, foretager markedsovervågningsmyndigheden en evaluering af det pågældende AI-system med hensyn til dets klassificering som et højrisiko-AI-system på grundlag af de betingelser, der er fastsat i artikel 6, stk. 3, og Kommissionens retningslinjer.
2. Hvis markedsovervågningsmyndigheden som led i denne evaluering konstaterer, at det pågældende AI-system er højrisiko, pålægger den uden unødigt ophold den relevante udbyder at foretage alle fornødne tiltag til at bringe AI-systemet i overensstemmelse med de krav og forpligtelser, der er fastsat i denne forordning, samt foretage fornødne korrigerende tiltag inden for en tidsfrist, som markedsovervågningsmyndigheden kan fastsætte.
3. Hvis markedsovervågningsmyndigheden konstaterer, at anvendelsen af det pågældende AI-system ikke er begrænset til medlemsstatens område, underretter den uden unødigt ophold Kommissionen og de øvrige medlemsstater om resultaterne af evalueringen og om de tiltag, den har pålagt udbyderen at foretage.
4. Udbyderen sikrer, at der foretages alle de nødvendige tiltag til at bringe AI-systemet i overensstemmelse med kravene og forpligtelserne i denne forordning. Hvis den pågældende udbyder af et AI-system ikke bringer AI-systemet i overensstemmelse med disse krav og forpligtelser inden for den tidsfrist, der er omhandlet i denne artikels stk. 2, straffes udbyderen med bøder i overensstemmelse med artikel 99.
5. Udbyderen sikrer, at der foretages alle fornødne korrigerende tiltag over for alle de pågældende AI-systemer, som denne har gjort tilgængelige EU-markedet.
6. Hvis udbyderen af det pågældende AI-system ikke foretager tilstrækkelige korrigerende tiltag inden for den tidsfrist, der er omhandlet i denne artikels stk. 2, finder artikel 79, stk. 5-9, anvendelse.
7. Hvis markedsovervågningsmyndigheden som led i evalueringen i henhold til denne artikels stk. 1 konstaterer, at AI-systemet er blevet fejlklassificeret af udbyderen som ikkehøjrisiko for at omgå anvendelsen af kravene i kapitel III, afdeling 2, straffes udbyderen med bøder i overensstemmelse med artikel 99.
8. Ved udøvelsen af deres beføjelse til at overvåge anvendelsen af denne artikel og i overensstemmelse med artikel 11 i forordning (EU) 2019/1020 kan markedsovervågningsmyndighederne foretage passende kontroller under særlig hensyntagen til oplysninger, der er lagret i den EU-database, der er omhandlet i nærværende forordnings artikel 71.
1. Hvis markedsovervågningsmyndigheden i en medlemsstat inden for tre måneder efter modtagelsen af den i artikel 79, stk. 5, omhandlede underretning eller inden for 30 dage i tilfælde af manglende overholdelse af forbuddet mod de i artikel 5 anførte former for AI-praksis har gjort indsigelse mod en foranstaltning truffet af en anden markedsovervågningsmyndighed, eller hvis Kommissionen finder, at foranstaltningen er i strid med EU-retten, hører Kommissionen uden unødigt ophold den relevante medlemsstats markedsovervågningsmyndighed og den eller de relevante operatører og evaluerer den nationale foranstaltning. På grundlag af resultaterne af denne evaluering træffer Kommissionen senest seks måneder efter den i artikel 79, stk. 5, omhandlede underretning afgørelse om, hvorvidt den nationale foranstaltning er berettiget, eller inden for 60 dage i tilfælde af manglende overholdelse af forbuddet mod de i artikel 5 anførte former for AI-praksis og meddeler sin afgørelse til markedsovervågningsmyndigheden i den pågældende medlemsstat. Kommissionen underretter også alle andre markedsovervågningsmyndigheder om sin afgørelse.
2. Hvis Kommissionen anser den foranstaltning, der er truffet af den relevante medlemsstat, for at være berettiget, sikrer alle medlemsstater, at de træffer de fornødne restriktive foranstaltninger med hensyn til det pågældende AI-system, f.eks. krav om tilbagetrækning af AI-systemet fra deres marked uden unødigt ophold, og underretter Kommissionen herom. Hvis Kommissionen anser den nationale foranstaltning for ikke at være berettiget, trækker den pågældende medlemsstat foranstaltningen tilbage og underretter Kommissionen herom.
3. Hvis den nationale foranstaltning anses for at være berettiget, og hvis AI-systemets manglende overholdelse tilskrives mangler ved de harmoniserede standarder eller fælles specifikationer, der er omhandlet i denne forordnings artikel 40 og 41, anvender Kommissionen proceduren i artikel 11 i forordning (EU) nr. 1025/2012.
1. Hvis en medlemsstats markedsovervågningsmyndighed efter at have foretaget en vurdering i henhold til artikel 79 og efter høring af den relevante nationale offentlige myndighed, der er omhandlet i artikel 77, stk. 1, finder, at et højrisiko-AI-system, selv om det overholder kravene i denne forordning, alligevel udgør en risiko for personers sundhed eller sikkerhed, for grundlæggende rettigheder eller for andre aspekter vedrørende beskyttelse af samfundsinteresser, skal den pålægge den relevante operatør uden unødigt ophold at træffe alle nødvendige foranstaltninger for at sikre, at det pågældende AI-system, når det bringes i omsætning eller ibrugtages, ikke længere udgør en sådan risiko, inden for en tidsfrist, som den kan fastsætte.
2. Udbyderen eller en anden relevant operatør sikrer, at der foretages korrigerende tiltag med hensyn til alle de pågældende AI-systemer, som vedkommende har gjort tilgængelige på EU-markedet, inden for den tidsfrist, der er fastsat af medlemsstatens markedsovervågningsmyndighed, der er omhandlet stk. 1.
3. Medlemsstaterne underretter omgående Kommissionen og de øvrige medlemsstater om resultaterne i henhold til stk. 1. Denne underretning skal indeholde alle tilgængelige oplysninger, især de nødvendige data til identifikation af de pågældende AI-systemer, AI-systemets oprindelse og forsyningskæde, arten af den pågældende risiko og arten og varigheden af de trufne nationale foranstaltninger.
4. Kommissionen hører uden unødigt ophold de berørte medlemsstater og de relevante operatører og vurderer de trufne nationale foranstaltninger. På grundlag af resultaterne af denne vurdering træffer Kommissionen afgørelse om, hvorvidt foranstaltningen er berettiget, og foreslår om nødvendigt andre passende foranstaltninger.
5. Kommissionen meddeler omgående sin afgørelse til de pågældende medlemsstater og til de relevante operatører. Den underretter også de øvrige medlemsstater.
1. Hvis en medlemsstats markedsovervågningsmyndighed konstaterer et af følgende forhold, pålægger den den pågældende udbyder at bringe den manglende overholdelse til ophør inden for en tidsfrist, som den kan fastsætte:
a) CE-mærkningen er anbragt i modstrid med artikel 48
b) CE-mærkningen er ikke anbragt
c) den i artikel 47 omhandlede EU-overensstemmelseserklæring er ikke udarbejdet
d) den i artikel 47 omhandlede EU-overensstemmelseserklæring er ikke udarbejdet korrekt
e) den i artikel 71 omhandlede registrering i EU-databasen er ikke foretaget
f) der er, hvor det er relevant, ikke udpeget nogen bemyndiget repræsentant
g) den tekniske dokumentation er ikke tilgængelig.
2. Hvis der fortsat er tale om manglende overholdelse omhandlet i stk. 1, skal markedsovervågningsmyndigheden i den pågældende medlemsstat træffe nødvendige og forholdsmæssige foranstaltninger for at begrænse eller forbyde, at højrisiko-AI-systemet gøres tilgængeligt på markedet, eller for at sikre, at det straks tilbagekaldes eller tilbagetrækkes fra markedet.
1. Kommissionen udpeger en eller flere EU-støttestrukturer for afprøvning af AI til at udføre de opgaver, der er anført i artikel 21, stk. 6, i forordning (EU) 2019/1020 inden for AI.
2. Uden at det berører de opgaver, der er omhandlet i stk. 1, skal EU-støttestrukturer for afprøvning af AI også yde uafhængig teknisk eller videnskabelig rådgivning på anmodning af AI-udvalget, Kommissionen eller markedsovervågningsmyndighederne.
Uden at det berører andre administrative klageadgange eller adgang til retsmidler, kan enhver fysisk eller juridisk person, der har grund til at mene, at der er sket en overtrædelse af bestemmelserne i denne forordning, indgive klager til den relevante markedsovervågningsmyndighed.
I overensstemmelse med forordning (EU) 2019/1020 tages sådanne klager i betragtning med henblik på at udføre markedsovervågningsaktiviteterne og behandles i overensstemmelse med de særlige procedurer, som markedsovervågningsmyndighederne har fastlagt dertil.
1. Enhver berørt person, der er omfattet af en afgørelse truffet af idriftsætteren på grundlag af output fra et højrisiko-AI-system opført i bilag III, med undtagelse af systemerne opført i nævnte bilags punkt 2, og som har retsvirkninger eller på tilsvarende måde i væsentlig grad påvirker den pågældende person på en måde, som de anser for at have negativ indvirkning på vedkommendes sundhed, sikkerhed eller grundlæggende rettigheder, har ret til at få en klar og meningsfuld forklaring fra idriftsætteren om AI-systemets rolle i beslutningsprocessen og hovedelementerne i den trufne afgørelse.
2. Stk. 1 finder ikke anvendelse på anvendelsen af AI-systemer, for hvilke undtagelser fra eller begrænsninger af forpligtelsen i henhold til nævnte stykke følger af EU-retten eller national ret, der overholder EU-retten.
3. Denne artikel finder kun anvendelse, for så vidt den i stk. 1 omhandlede ret ikke på anden vis er fastsat i EU-retten.
Direktiv (EU) 2019/1937 finder anvendelse på indberetning af overtrædelser af denne forordning og på beskyttelsen af personer, der indberetter sådanne overtrædelser.
1. Kommissionen har enekompetence til at føre tilsyn med og håndhæve kapitel V under hensyntagen til de proceduremæssige garantier i henhold til artikel 94. Kommissionen overdrager gennemførelsen af disse opgaver til AI-kontoret, uden at dette berører Kommissionens organisationsbeføjelser og kompetencefordelingen mellem medlemsstaterne og Unionen på grundlag af traktaterne.
2. Uden at det berører artikel 75, stk. 3, kan markedsovervågningsmyndighederne anmode Kommissionen om at udøve de beføjelser, der er fastsat i denne afdeling, hvis dette er nødvendigt og forholdsmæssigt for at bistå med udførelsen af deres opgaver i henhold til denne forordning.
1. AI-kontoret kan for at kunne udføre de opgaver, der tildeles det i henhold til denne afdeling, foretage de nødvendige tiltag for at overvåge, at udbydere af AI-modeller til almen brug gennemfører og overholder denne forordning effektivt, herunder overholder godkendte praksiskodekser.
2. Downstreamudbydere har ret til at indgive en klage over en overtrædelse af denne forordning. En klage skal være behørigt begrundet og som minimum indeholde:
a) kontaktpunktet for udbyderen af den pågældende AI-model til almen brug
b) en beskrivelse af de relevante kendsgerninger, de pågældende bestemmelser i denne forordning og årsagen til, at downstreamudbyderen mener, at udbyderen af den pågældende AI-model til almen brug har overtrådt denne forordning
c) alle andre oplysninger, som downstreamudbyderen, som sendte anmodningen, anser for relevante, herunder i givet fald oplysninger indsamlet på eget initiativ.
1. Det videnskabelige panel kan sende en kvalificeret varsling til AI-kontoret, hvis det har begrundet mistanke om, at:
a) en AI-model til almen brug udgør en konkret identificerbar risiko på EU-plan, eller
b) en AI-model til almen brug opfylder betingelserne omhandlet i artikel 51.
2. Efter en sådan kvalificeret varsling kan Kommissionen gennem AI-kontoret og efter at have underrettet AI-udvalget udøve de beføjelser, der er fastsat i denne afdeling, med henblik på at vurdere sagen. AI-kontoret underretter AI-udvalget om enhver foranstaltning i henhold til artikel 91-94.
3. En kvalificeret varsling skal være behørigt begrundet og som minimum indeholde:
a) kontaktpunktet for udbyderen af den pågældende AI-model til almen brug med systemisk risiko
b) en beskrivelse af de relevante kendsgerninger og årsager til varslingen fra det videnskabelige panel
c) alle andre oplysninger, som det videnskabelige panel anser for relevante, herunder i givet fald oplysninger indsamlet på eget initiativ.
1. Kommissionen kan anmode udbyderen af den pågældende AI-model til almen brug om at stille den dokumentation til rådighed, som udbyderen har udarbejdet i overensstemmelse med artikel 53 og 55, eller eventuelle yderligere oplysninger, som er nødvendige for at vurdere, om udbyderen overholder denne forordning.
2. Inden anmodningen om oplysninger sendes, kan AI-kontoret indlede en struktureret dialog med udbyderen af AI-modellen til almen brug.
3. Efter en behørigt begrundet anmodning fra det videnskabelige panel kan Kommissionen fremsætte en anmodning om oplysninger til en udbyder af en AI-model til almen brug, hvis adgangen til oplysninger er nødvendig og forholdsmæssig for udførelsen af det videnskabelige panels opgaver i henhold til artikel 68, stk. 2.
4. Anmodningen om oplysninger skal angive retsgrundlaget og formålet med anmodningen, præcisere, hvilke oplysninger der anmodes om, fastsætte tidsfristen, inden for hvilken oplysningerne skal fremlægges, og angive de bøder, der er fastsat i artikel 101, for at afgive ukorrekte, ufuldstændige eller vildledende oplysninger.
5. Udbyderen af den pågældende AI-model til almen brug eller dennes repræsentant skal afgive de oplysninger, der anmodes om. Såfremt det drejer sig om juridiske personer, selskaber eller firmaer, eller hvis udbyderen ikke har status som juridisk person, skal de personer, som ved lov eller ifølge deres vedtægter har beføjelse til at repræsentere dem, afgive de oplysninger, der anmodes om på vegne af udbyderen af den pågældende AI-model til almen brug. Behørigt befuldmægtigede advokater kan afgive oplysninger på deres klienters vegne. Klienterne bærer dog det fulde ansvar, såfremt de afgivne oplysninger er ufuldstændige, ukorrekte eller vildledende.
1. AI-kontoret kan efter høring af AI-udvalget foretage evalueringer af den pågældende AI-model til almen brug:
a) med henblik på at vurdere, om udbyderen overholder forpligtelserne i henhold til denne forordning, hvis de indsamlede oplysninger i henhold til artikel 91 er utilstrækkelige, eller
b) med henblik på at undersøge systemiske risici på EU-plan for AI-modeller til almen brug med systemisk risiko, navnlig efter en kvalificeret varsling fra det videnskabelige panel i overensstemmelse med artikel 90, stk. 1, litra a).
2. Kommissionen kan beslutte at udpege uafhængige eksperter til at foretage evalueringer på dens vegne, herunder fra det videnskabelige panel, der er oprettet i henhold til artikel 68. Uafhængige eksperter, der udpeges til denne opgave, skal opfylde kriterierne anført i artikel 68, stk. 2.
3. Med henblik på stk. 1 kan Kommissionen anmode om adgang til den pågældende AI-model til almen brug via API'er eller andre hensigtsmæssige tekniske midler og værktøjer, herunder kildekode.
4. Anmodningen om adgang skal angive retsgrundlaget, formålet med og begrundelsen for anmodningen og fastsætte tidsfristen, inden for hvilken der skal gives adgang, samt bøder, der er fastsat i artikel 101, ved manglende adgang.
5. Udbydere af den pågældende AI-model til almen brug eller dennes repræsentant skal afgive de oplysninger, der anmodes om. Såfremt det drejer sig om juridiske personer, selskaber eller firmaer, eller hvis udbyderen ikke har status som juridisk person, skal de personer, som ved lov eller ifølge deres vedtægter har beføjelse til at repræsentere dem, give den adgang, der anmodes om på vegne af udbyderen af den pågældende AI-model til almen brug.
6. Kommissionen vedtager gennemførelsesretsakter, der fastsætter de nærmere ordninger og bestemmelser og betingelser for evalueringerne, herunder de nærmere ordninger for inddragelse af uafhængige eksperter, og proceduren for udvælgelse heraf. Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
7. Inden der anmodes om adgang til den pågældende AI-model til almen brug, kan AI-kontoret indlede en struktureret dialog med udbyderen af AI-modellen til almen brug for at indsamle flere oplysninger om den interne afprøvning af modellen, interne sikkerhedsforanstaltninger til forebyggelse af systemiske risici og andre interne procedurer og foranstaltninger, som udbyderen har truffet for at afbøde sådanne risici.
1. Hvis det er nødvendigt og hensigtsmæssigt, kan Kommissionen anmode udbyderne om at:
a) træffe passende foranstaltninger til at overholde forpligtelserne i artikel 53 og 54
b) gennemføre afbødende foranstaltninger, hvis den evaluering, der foretages i overensstemmelse med artikel 92, har givet anledning til alvorlig og begrundet mistanke om en systemisk risiko på EU-plan
c) begrænse tilgængeliggørelsen på markedet, tilbagetrække eller tilbagekalde modellen.
2. Inden der anmodes om foranstaltninger, kan AI-kontoret indlede en struktureret dialog med udbyderen af AI-modellen til almen brug.
3. Hvis udbyderen af AI-modellen til almen brug med systemisk risiko under den strukturerede dialog, der er omhandlet i stk. 2, afgiver tilsagn om at gennemføre afbødende foranstaltninger for at afhjælpe en systemisk risiko på EU-plan, kan Kommissionen ved en afgørelse gøre disse tilsagn bindende og erklære, at der ikke er yderligere grundlag for handling.
Artikel 18 i forordning (EU) 2019/1020 finder tilsvarende anvendelse på udbydere af AI-modellen til almen brug, uden at dette berører de mere specifikke procedurerettigheder, som er fastsat i nærværende forordning.
1. AI-kontoret og medlemsstaterne tilskynder til og letter udarbejdelsen af adfærdskodekser, herunder tilhørende forvaltningsmekanismer, der har til formål at fremme frivillig anvendelse af visse af eller alle de i kapitel III, afdeling 2, fastsatte krav på AI-systemer, der ikke er højrisiko-AI-systemer, under hensyntagen til de tilgængelige tekniske løsninger og industriens bedste praksis, der gør det muligt at anvende sådanne krav.
2. AI-kontoret og medlemsstaterne letter udarbejdelsen af adfærdskodekser vedrørende frivillig anvendelse, herunder fra idriftsætternes side, af specifikke krav til alle AI-systemer på grundlag af klare mål og centrale resultatindikatorer til måling af realiseringen af disse mål, herunder elementer såsom, men ikke begrænset til:
a) relevante elementer fastsat i Unionens etiske retningslinjer for troværdig AI
b) vurdering og minimering af AI-systemers indvirkning på miljømæssig bæredygtighed, herunder med hensyn til energieffektiv programmering og teknikker til effektiv udformning, træning og anvendelse af AI
c) fremme af AI-færdigheder, navnlig hos personer, der beskæftiger sig med udvikling, drift og anvendelse af AI
d) fremme af en inklusiv og mangfoldig udformning af AI-systemer, herunder gennem oprettelse af inklusive og mangfoldige udviklingsteams og fremme af interessenters inddragelse i denne proces
e) vurdering og forebyggelse af, at AI-systemer har negativ indvirkning på sårbare personer eller grupper af sårbare personer, herunder for så vidt angår tilgængelighed for personer med handicap, samt på ligestilling mellem kønnene.
3. Adfærdskodekser kan udarbejdes af individuelle udbydere eller idriftsættere af AI-systemer, af organisationer, der repræsenterer dem, eller af begge, herunder med inddragelse af eventuelle interesserede parter og deres repræsentative organisationer, herunder civilsamfundsorganisationer og den akademiske verden. Adfærdskodekser kan omfatte et eller flere AI-systemer under hensyntagen til ligheden mellem de relevante systemers tilsigtede formål.
4. Når AI-kontoret og medlemsstaterne tilskynder til og letter udarbejdelsen af adfærdskodekser, tager de hensyn til SMV'ers, herunder iværksættervirksomheders, særlige interesser og behov.
1. Kommissionen udarbejder retningslinjer for den praktiske gennemførelse af denne forordning, navnlig for:
a) anvendelsen af de krav og forpligtelser, der er omhandlet i artikel 8-15 og artikel 25
b) de forbudte former for praksis, der er omhandlet i artikel 5
c) den praktiske gennemførelse af bestemmelserne om væsentlig ændring
d) den praktiske gennemførelse af gennemsigtighedsforpligtelserne i artikel 50
e) detaljerede oplysninger om forholdet mellem denne forordning og EU-harmoniseringslovgivningen, der er opført i bilag I, samt anden relevant EU-ret, herunder for så vidt angår konsekvens i håndhævelsen deraf
f) anvendelsen af definitionen af et AI-system som fastsat i artikel 3, nr. 1).
Når Kommissionen udsteder sådanne retningslinjer, skal den være særlig opmærksom på behovene hos SMV'er, herunder iværksættervirksomheder, hos lokale offentlige myndigheder og i sektorer, der med størst sandsynlighed vil blive berørt af denne forordning.
Der skal med de retningslinjer, der er omhandlet i dette stykkes første afsnit, tages behørigt hensyn til det generelt anerkendte aktuelle teknologiske niveau inden for AI samt til relevante harmoniserede standarder og fælles specifikationer, der er omhandlet i artikel 40 og 41, eller til de harmoniserede standarder eller tekniske specifikationer, der er fastsat i henhold til EU-harmoniseringsretten.
2. På anmodning af medlemsstaterne eller AI-kontoret eller på eget initiativ ajourfører Kommissionen tidligere vedtagne retningslinjer, når det skønnes nødvendigt.
1. Beføjelsen til at vedtage delegerede retsakter tillægges Kommissionen på de i denne artikel fastlagte betingelser.
2. Beføjelsen til at vedtage delegerede retsakter, jf. artikel 6, stk. 6 og 7, artikel 7, stk. 1 og 3, artikel 11, stk. 3, artikel 43, stk. 5 og 6, artikel 47, stk. 5, artikel 51, stk. 3, artikel 52, stk. 4, og artikel 53, stk. 5 og 6, tillægges Kommissionen for en periode på fem år fra den 1. august 2024. Kommissionen udarbejder en rapport vedrørende delegationen af beføjelser senest ni måneder inden udløbet af femårsperioden. Delegationen af beføjelser forlænges stiltiende for perioder af samme varighed, medmindre Europa-Parlamentet eller Rådet modsætter sig en sådan forlængelse senest tre måneder inden udløbet af hver periode.
3. Den i artikel 6, stk. 6 og 7, artikel 7, stk. 1 og 3, artikel 11, stk. 3, artikel 43, stk. 5 og 6, artikel 47, stk. 5, artikel 51, stk. 3, artikel 52, stk. 4, og artikel 53, stk. 5 og 6, omhandlede delegation af beføjelser kan til enhver tid tilbagekaldes af Europa-Parlamentet eller Rådet. En afgørelse om tilbagekaldelse bringer delegationen af de beføjelser, der er angivet i den pågældende afgørelse, til ophør. Den får virkning dagen efter offentliggørelsen af afgørelsen i Den Europæiske Unions Tidende eller på et senere tidspunkt, der angives i afgørelsen. Den berører ikke gyldigheden af delegerede retsakter, der allerede er i kraft.
4. Inden vedtagelsen af en delegeret retsakt hører Kommissionen eksperter, som er udpeget af hver enkelt medlemsstat, i overensstemmelse med principperne i den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning.
5. Så snart Kommissionen vedtager en delegeret retsakt, giver den samtidigt Europa-Parlamentet og Rådet meddelelse herom.
6. Enhver delegeret retsakt vedtaget i henhold til artikel 6, stk. 6 eller 7, artikel 7, stk. 1 eller 3, artikel 11, stk. 3, artikel 43, stk. 5 eller 6, artikel 47, stk. 5, artikel 51, stk. 3, artikel 52, stk. 4, eller artikel 53, stk. 5 eller 6, træder kun i kraft, hvis hverken Europa-Parlamentet eller Rådet har gjort indsigelse inden for en frist på tre måneder fra meddelelsen af den pågældende retsakt til Europa-Parlamentet og Rådet, eller hvis Europa-Parlamentet og Rådet inden udløbet af denne frist begge har underrettet Kommissionen om, at de ikke agter at gøre indsigelse. Fristen forlænges med tre måneder på Europa-Parlamentets eller Rådets initiativ.
1. Kommissionen bistås af et udvalg. Dette udvalg er et udvalg som omhandlet i forordning (EU) nr. 182/2011.
2. Når der henvises til dette stykke, finder artikel 5 i forordning (EU) nr. 182/2011 anvendelse.
1. I overensstemmelse med de vilkår og betingelser, der er fastsat i denne forordning, fastsætter medlemsstaterne regler om sanktioner og andre håndhævelsesforanstaltninger, som også kan omfatte advarsler og ikkeøkonomiske foranstaltninger, for operatørers overtrædelse af denne forordning og træffer alle nødvendige foranstaltninger for at sikre, at de gennemføres korrekt og effektivt, og dermed tage hensyn til de retningslinjer, som Kommissionen har udstedt i henhold til artikel 96. Sanktionerne skal være effektive, stå i et rimeligt forhold til overtrædelsen og have afskrækkende virkning. Der tages hensyn til SMV'ers, herunder iværksættervirksomheders, interesser og deres økonomiske levedygtighed.
2. Medlemsstaterne giver straks og senest på anvendelsesdatoen Kommissionen meddelelse om reglerne om sanktioner og andre håndhævelsesforanstaltninger, der er omhandlet i stk. 1, og meddeler den straks enhver efterfølgende ændring heraf.
3. Manglende overholdelse af forbud mod de i artikel 5 anførte former for AI-praksis straffes med administrative bøder på op til 35 000 000 EUR eller, hvis lovovertræderen er en virksomhed, op til 7 % af dens samlede globale årlige omsætning i det foregående regnskabsår, alt efter hvilket beløb der er størst.
4. Manglende overholdelse af en af følgende bestemmelser vedrørende operatører eller bemyndigede organer, bortset fra de bestemmelser, der er fastsat i artikel 5, straffes med administrative bøder på op til 15 000 000 EUR eller, hvis lovovertræderen er en virksomhed, op til 3 % af dens samlede globale årlige omsætning i det foregående regnskabsår, alt efter hvilket beløb der er størst:
a) forpligtelser for udbydere i henhold til artikel 16
b) forpligtelser for bemyndigede repræsentanter i henhold til artikel 22
c) forpligtelser for importører i henhold til artikel 23
d) forpligtelser for distributører i henhold til artikel 24
e) forpligtelser for idriftsættere i henhold til artikel 26
f) krav til og forpligtelser for bemyndigede organer i henhold til artikel 31, artikel 33, stk. 1, 3 og 4, eller artikel 34
1. Den Europæiske Tilsynsførende for Databeskyttelse kan pålægge de EU-institutioner, -organer, -kontorer og -agenturer, der er omfattet af denne forordnings anvendelsesområde, administrative bøder. Når der træffes afgørelse om, hvorvidt der skal pålægges en administrativ bøde, og ved fastsættelsen af den administrative bødes størrelse tages der i hvert enkelt tilfælde hensyn til alle relevante omstændigheder i den specifikke situation, og der tages behørigt hensyn til følgende:
a) overtrædelsens art, grovhed og varighed samt dens konsekvenser, under hensyntagen til formålet med det pågældende AI-system, samt, hvis det er relevant, antallet af berørte personer og omfanget af den skade, de har lidt
b) graden af ansvar hos EU-institutionen, -organet, -kontoret eller -agenturet under hensyntagen til de tekniske og organisatoriske foranstaltninger, som de har gennemført
c) ethvert tiltag, der foretages af EU-institutionen, -organet, -kontoret eller -agenturet for at afhjælpe den skade, som de berørte personer har lidt
d) graden af samarbejde med Den Europæiske Tilsynsførende for Databeskyttelse med henblik på at afhjælpe overtrædelsen og afbøde de mulige negative virkninger af overtrædelsen, herunder overholdelse af enhver af de foranstaltninger, som Den Europæiske Tilsynsførende for Databeskyttelse tidligere har pålagt den pågældende EU-institution eller det pågældende EU-organ, -kontor eller -agentur med hensyn til samme genstand
e) eventuelle lignende overtrædelser, som den pågældende EU-institution eller det pågældende EU-organ, EU-kontor eller EU-agentur tidligere har begået
f) den måde, hvorpå Den Europæiske Tilsynsførende for Databeskyttelse fik kendskab til overtrædelsen, navnlig om den pågældende EU-institution eller det pågældende EU-organ, -kontor eller -agentur gav underretning om overtrædelsen, og i givet fald i hvilket omfang
g) EU-institutionens, -organets, -kontorets eller -agenturets årlige budget.
1. Kommissionen kan pålægge udbydere af AI-modeller til almen brug bøder på op til 3 % af deres årlige samlede globale omsætning i det foregående regnskabsår eller 15 000 000 EUR, alt efter hvilket beløb der er størst, når Kommissionen finder, at udbyderen forsætligt eller uagtsomt:
a) har overtrådt de relevante bestemmelser i denne forordning
b) har undladt at efterkomme en anmodning om et dokument eller om oplysninger i henhold til artikel 91 eller har afgivet ukorrekte, ufuldstændige eller vildledende oplysninger
c) har undladt at efterkomme en foranstaltning, der er anmodet om i henhold til artikel 93
d) har undladt at give Kommissionen adgang til AI-modellen til almen brug eller AI-modellen til almen brug med systemisk risiko med henblik på at foretage en evaluering i henhold til artikel 92.
Ved fastsættelse af bødens eller tvangsbødens størrelse tages overtrædelsens karakter, alvor og varighed i betragtning under behørig hensyntagen til proportionalitets- og rimelighedsprincippet. Kommissionen tager også hensyn til forpligtelser, der er indgået i overensstemmelse med artikel 93, stk. 3, eller i de relevante praksiskodekser i overensstemmelse med artikel 56.
2. Inden Kommissionen vedtager afgørelsen i henhold til stk. 1, meddeler den sine foreløbige resultater til udbyderen af AI-modellen til almen brug og giver vedkommende mulighed for at blive hørt.
3. Bøder, der pålægges i overensstemmelse med denne artikel, skal være effektive, stå i et rimeligt forhold til overtrædelsen og have afskrækkende virkning.
4. Information om de bøder, der pålægges i henhold til denne artikel, meddeles også AI-udvalget, alt efter hvad der er relevant.
5. EU-Domstolen har fuld prøvelsesret med hensyn til Kommissionens afgørelser om fastsættelse af bøder i henhold til denne artikel. Den kan annullere, nedsætte eller forhøje den pålagte bøde.
6. Kommissionen vedtager gennemførelsesretsakter med de nærmere ordninger og proceduremæssige sikkerhedsforanstaltninger for procedurerne med henblik på eventuel vedtagelse af afgørelser i henhold til denne artikels stk. 1. Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
I artikel 4, stk. 3, i forordning (EF) nr. 300/2008, tilføjes følgende afsnit:
»Når der vedtages detaljerede foranstaltninger vedrørende tekniske specifikationer og procedurer for godkendelse og brug af sikkerhedsudstyr vedrørende kunstig intelligens-systemer som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapital III, afdeling 2.
I artikel 17, stk. 5, i forordning (EU) nr. 167/2013 tilføjes følgende afsnit:
»Når der i henhold til første afsnit vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
I artikel 22, stk. 5, i forordning (EU) nr. 168/2013 tilføjes følgende afsnit:
»Når der i henhold til første afsnit vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
I artikel 8 i direktiv 2014/90/EU tilføjes følgende stykke:
»5. For så vidt angår kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689, tager Kommissionen, når den udfører sine aktiviteter i henhold til stk. 1, og når den vedtager tekniske specifikationer og afprøvningsstandarder i overensstemmelse med stk. 2 og 3, hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
I artikel 5 i direktiv (EU) 2016/797 tilføjes følgende stykke:
»12. Når der i henhold til stk. 1 vedtages delegerede retsakter eller i henhold til stk. 11 vedtages gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
I artikel 5 i forordning (EU) 2018/858 tilføjes følgende stykke:
»4. Når der i henhold til stk. 3 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
I forordning (EU) 2018/1139 foretages følgende ændringer:
1) I artikel 17 tilføjes følgende stykke:
»3. Uden at det berører stk. 2, når der i henhold til stk. 1 vedtages gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797 og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).« "
2) I artikel 19 tilføjes følgende stykke:
»4. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.«
3) I artikel 43 tilføjes følgende stykke:
»4. Når der i henhold til stk. 1 vedtages gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.«
4) I artikel 47 tilføjes følgende stykke:
»3. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.«
5) I artikel 57 tilføjes følgende afsnit:
»Når der vedtages sådanne gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.«
I artikel 11 i forordning (EU) 2019/2144 tilføjes følgende stykke:
»3. Når der i henhold til stk. 2 vedtages gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordning kapitel III, afdeling 2.
I bilag I til Europa-Parlamentets og Rådets direktiv (EU) 2020/1828 tilføjes følgende punkt:
»68) Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797 og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).«
1. Uden at det berører anvendelsen af artikel 5 som omhandlet i artikel 113, stk. 3, litra a), skal AI-systemer, som er komponenter i de store IT-systemer, der er oprettet ved de retsakter, der er opført i bilag X, og som er blevet bragt i omsætning eller ibrugtaget inden den 2. august 2027, bringes i overensstemmelse med denne forordning senest den 31. december 2030.
De krav, der er fastsat i denne forordning, skal tages i betragtning ved den evaluering, som skal foretages i henhold til de retsakter, der er opført i bilag X, af hvert af de store IT-systemer, der er oprettet ved disse retsakter, og hvis disse retsakter erstattes eller ændres.
2. Uden at det berører anvendelsen af artikel 5 som omhandlet i artikel 113, stk. 3, litra a), finder denne forordning kun anvendelse på operatører af andre højrisiko-AI-systemer end de systemer, der er omhandlet i nærværende artikels stk. 1, og som er bragt i omsætning eller ibrugtaget inden den 2. august 2026, hvis disse systemer fra denne dato er genstand for betydelige ændringer af deres udformning. I alle tilfælde skal udbydere og idriftsættere af højrisiko-AI-systemer, der tilsigtes anvendt af offentlige myndigheder, tage de nødvendige skridt til at overholde kravene og forpligtelserne i denne forordning senest den 2. august 2030.
3. Udbydere af AI-modeller til almen brug, der er bragt i omsætning før den 2. august 2025, tager de nødvendige skridt til at overholde de forpligtelser, der er fastsat i denne forordning, senest den 2. august 2027.
1. Kommissionen vurderer behovet for at ændre listen i bilag III og listen over forbudte former for AI-praksis i artikel 5 én gang om året efter denne forordnings ikrafttræden og indtil slutningen af perioden med delegation af beføjelser, der er fastsat i artikel 97. Kommissionen forelægger resultaterne af denne vurdering for Europa-Parlamentet og Rådet.
2. Senest den 2. august 2028 og hvert fjerde år derefter evaluerer Kommissionen og aflægger rapport til Europa-Parlamentet og Rådet om følgende:
a) behovet for ændringer om udvidelse af eksisterende områdeoverskrifter eller tilføjelse af nye områdeoverskrifter i bilag III
b) ændringer af listen over de AI-systemer, der kræver yderligere gennemsigtighedsforanstaltninger i henhold til artikel 50
c) ændringer om styrkelse af effektiviteten af tilsyns- og forvaltningssystemet.
3. Senest den 2. august 2029 og hvert fjerde år derefter forelægger Kommissionen Europa-Parlamentet og Rådet en rapport om evaluering og revision af denne forordning. Rapporten skal indeholde en vurdering af håndhævelsesstrukturen og det eventuelle behov for, at et EU-agentur løser eventuelle konstaterede mangler. På grundlag af resultaterne ledsages rapporten i givet fald af et forslag til ændring af denne forordning. Rapporterne offentliggøres.
4. I de i stk. 2 omhandlede rapporter lægges der særlig vægt på følgende:
a) status over de nationale kompetente myndigheders finansielle, tekniske og menneskelige ressourcer med henblik på effektivt at udføre de opgaver, de pålægges i henhold til denne forordning
b) status over de sanktioner, navnlig de administrative bøder, der er omhandlet i artikel 99, stk. 1, som medlemsstaterne har pålagt som følge af overtrædelser af denne forordning
c) vedtagne harmoniserede standarder og fælles specifikationer, der er udarbejdet til støtte for denne forordning
d) antallet af virksomheder, der kommer ind på markedet efter anvendelsen af denne forordning, og hvor mange af dem der er SMV'er.
Denne forordning træder i kraft på tyvendedagen efter offentliggørelsen i Den Europæiske Unions Tidende.
Den finder anvendelse fra den 2. august 2026.
Dog finder:
a) kapitel I og II anvendelse fra den 2. februar 2025
b) kapitel III, afdeling 4, kapitel V, VII og XII og artikel 78 anvendelse fra den 2. august 2025, med undtagelse af artikel 101
c) artikel 6, stk. 1, og de tilsvarende forpligtelser i denne forordning anvendelse fra den 2. august 2027.
Denne forordning er bindende i alle enkeltheder og gælder umiddelbart i hver medlemsstat.
Udfærdiget i Bruxelles, den 13. juni 2024.
EUT C 517 af 22.12.2021, s. 56.
Europa-Parlamentets holdning af 13. marts 2024 (endnu ikke offentliggjort i EUT) og Rådets afgørelse af 21. maj 2024.
Det Europæiske Råd, Ekstraordinært møde i Det Europæiske Råd (1. og 2. oktober 2020) – Konklusioner, EUCO 13/20, 2020, s. 6.
Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier, 2020/2012(INL).
Europa-Parlamentets og Rådets forordning (EF) nr. 765/2008 af 9. juli 2008 om kravene til akkreditering og om ophævelse af forordning (EØF) nr. 339/93 (EUT L 218 af 13.8.2008, s. 30).
Europa-Parlamentets og Rådets afgørelse nr. 768/2008/EF af 9. juli 2008 om fælles rammer for markedsføring af produkter og om ophævelse af Rådets afgørelse 93/465/EØF (EUT L 218 af 13.8.2008, s. 82).
9) »omsætning«: den første tilgængeliggørelse af et AI-system eller en AI-model til almen brug på EU-markedet
10) »tilgængeliggørelse på markedet«: levering af et AI-system eller en AI-model til almen brug med henblik på distribution eller anvendelse på EU-markedet som led i erhvervsvirksomhed mod eller uden vederlag
11) »ibrugtagning«: levering af et AI-system til anvendelse for første gang enten direkte til idriftsætteren eller til egen brug i Unionen i overensstemmelse med dets tilsigtede formål
12) »tilsigtet formål«: den anvendelse, som et AI-system af udbyderen er tilsigtet, herunder den specifikke sammenhæng og de specifikke betingelser for anvendelse som angivet i de oplysninger, udbyderen giver i brugsanvisningen, reklame- eller salgsmaterialet og reklame- og salgserklæringerne samt i den tekniske dokumentation
13) »fejlanvendelse, der med rimelighed kan forudses«: anvendelse af et AI-system på en måde, der ikke er i overensstemmelse med systemets tilsigtede formål, men som kan skyldes menneskelig adfærd eller interaktion med andre systemer, herunder andre AI-systemer, der med rimelighed kan forudses
14) »sikkerhedskomponent«: en komponent i et produkt eller et AI-system, som har en sikkerhedsfunktion for det pågældende produkt eller AI-system eller i tilfælde af svigt eller funktionsfejl, som bringer personers sundhed og sikkerhed eller ejendom i fare, i produktet eller systemet
15) »brugsanvisning«: oplysninger fra udbyderen med henblik på at informere idriftsætteren om navnlig et AI-systems tilsigtede formål og korrekte anvendelse
16) »tilbagekaldelse af et AI-system«: enhver foranstaltning, der har til formål at opnå, at et AI-system, der allerede er gjort tilgængeligt for idriftsætterne, returneres til udbyderen eller tages ud af drift eller deaktiveres
17) »tilbagetrækning af et AI-system«: enhver foranstaltning, der har til formål at forhindre, at et AI-system i forsyningskæden gøres tilgængeligt på markedet
18) »et AI-systems ydeevne«: et AI-systems evne til at opfylde det tilsigtede formål
19) »bemyndigende myndighed«: den nationale myndighed, der er ansvarlig for at indføre og gennemføre de nødvendige procedurer for vurdering, udpegelse og notifikation af overensstemmelsesvurderingsorganer og for overvågning heraf
20) »overensstemmelsesvurdering«: processen til påvisning af, om de i kapitel III, afdeling 2, fastsatte krav vedrørende et højrisiko-AI-system er opfyldt
21) »overensstemmelsesvurderingsorgan«: et organ, der som tredjepart udfører overensstemmelsesvurderingsaktiviteter, herunder afprøvning, certificering og inspektion
22) »bemyndiget organ«: et overensstemmelsesvurderingsorgan, der er notificeret i overensstemmelse med denne forordning og anden relevant EU-harmoniseringslovgivning
23) »væsentlig ændring«: en ændring af et AI-system efter dets omsætning eller ibrugtagning, som ikke er forudset eller planlagt i udbyderens indledende overensstemmelsesvurdering, og som følge af hvilken AI-systemets overholdelse af de i kapitel III, afdeling 2, fastsatte krav påvirkes eller medfører en ændring af det tilsigtede formål, med henblik på hvilket AI-systemet er vurderet
24) »CE-mærkning«: en mærkning, hvormed en udbyder angiver, at et AI-system er i overensstemmelse med de krav, der er fastsat i kapitel III, afdeling 2, og anden gældende EU-harmoniseringslovgivning, og om anbringelse af denne mærkning
25) »system til overvågning efter omsætningen«: alle aktiviteter, som udbydere af AI-systemer udfører for at samle og gennemgå erfaringer med anvendelse af de AI-systemer, de bringer i omsætning eller ibrugtager, med henblik på at afdække eventuelle behov for omgående at foretage nødvendige, korrigerende eller forebyggende tiltag
26) »markedsovervågningsmyndighed«: den nationale myndighed, der udfører aktiviteterne og træffer foranstaltningerne i henhold til forordning (EU) 2019/1020
27) »harmoniseret standard«: en harmoniseret standard som defineret i artikel 2, nr. 1), litra c), i forordning (EU) nr. 1025/2012
28) »fælles specifikation«: et sæt af tekniske specifikationer som defineret i artikel 2, nr. 4), i forordning (EU) nr. 1025/2012, der giver mulighed for at overholde visse krav, der er fastsat i nærværende forordning
29) »træningsdata«: data, der anvendes til træning af et AI-system ved hjælp af tilpasning af dets lærbare parametre
30) »valideringsdata«: data, der anvendes til at foretage en evaluering af det trænede AI-system og til at justere systemets ikkelærbare parametre og dets læringsproces med henblik på bl.a. at forhindre undertilpasning eller overtilpasning
31) »valideringsdatasæt«: et separat datasæt eller en del af træningsdatasættet, enten som et fast eller variabelt split
32) »afprøvningsdata«: data, der anvendes til en uafhængig evaluering af AI-systemet for at bekræfte systemets forventede ydeevne, inden det bringes i omsætning eller ibrugtages
33) »inputdata«: data, der leveres til eller hentes direkte af et AI-system, og på grundlag af hvilke systemet leverer et output
34) »biometriske data«: personoplysninger som følge af specifik teknisk behandling vedrørende en fysisk persons fysiske, fysiologiske eller adfærdsmæssige karakteristika som f.eks. ansigtsbilleder eller fingeraftryksoplysninger
35) »biometrisk identifikation«: automatiseret genkendelse af fysiske, fysiologiske, adfærdsmæssige eller psykologiske menneskelige træk med henblik på at fastslå en fysisk persons identitet ved at sammenligne den pågældende persons biometriske data med biometriske data om enkeltpersoner lagret i en database
36) »biometrisk verifikation«: automatiseret, en-til-en-verifikation, herunder autentificering, af fysiske personers identitet ved at sammenligne deres biometriske data med tidligere afgivne biometriske data
37) »særlige kategorier af personoplysninger«: de kategorier af personoplysninger, der er omhandlet i artikel 9, stk. 1, i forordning (EU) 2016/679, artikel 10 i direktiv (EU) 2016/680 og artikel 10, stk. 1, i forordning (EU) 2018/1725
38) »følsomme operationelle data«: operationelle data vedrørende aktiviteter med henblik på forebyggelse, afsløring, efterforskning eller retsforfølgning af strafbare handlinger, hvis videregivelse kan bringe straffesagens integritet i fare
39) »system til følelsesgenkendelse«: et AI-system, der har til formål at genkende eller udlede fysiske personers følelser eller hensigter på grundlag af deres biometriske data
40) »system til biometrisk kategorisering«: et AI-system, der har til formål at placere fysiske personer i bestemte kategorier på grundlag af deres biometriske data, medmindre de understøtter en anden kommerciel tjeneste og er strengt nødvendige af objektive tekniske årsager
41) »system til biometrisk fjernidentifikation«: et AI-system, der har til formål at identificere fysiske personer uden deres aktive deltagelse, typisk på afstand, ved at sammenligne en persons biometriske data med de biometriske data i en referencedatabase
42) »system til biometrisk fjernidentifikation i realtid«: et system til biometrisk fjernidentifikation, hvor optagelse af biometriske data, sammenligning og identifikation alle finder sted uden væsentlig forsinkelse, omfattende ikke blot øjeblikkelig identifikation, men også begrænsede, korte forsinkelser for at undgå omgåelse
43) »system til efterfølgende biometrisk fjernidentifikation«: et system til biometrisk fjernidentifikation, som ikke er et system til biometrisk fjernidentifikation i realtid
44) »offentligt sted«: ethvert offentligt eller privatejet fysisk sted, der er tilgængeligt for et ubestemt antal fysiske personer, uanset om der kan gælde visse adgangsbetingelser, og uanset de potentielle kapacitetsbegrænsninger
45) »retshåndhævende myndigheder«:
a) enhver offentlig myndighed, der er kompetent med hensyn til at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner, herunder beskytte mod og forebygge trusler mod den offentlige sikkerhed, eller
b) ethvert andet organ eller enhver anden enhed, som i henhold til medlemsstaternes nationale ret udøver offentlig myndighed og offentlige beføjelser med henblik på at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner, herunder beskytte mod og forebygge trusler mod den offentlige sikkerhed
46) »retshåndhævelse«: aktiviteter, som udføres af retshåndhævende myndigheder eller på deres vegne, med hensyn til at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner, herunder beskytte mod og forebygge trusler mod den offentlige sikkerhed
47) »AI-kontoret«: Kommissionens funktion med at bidrage til gennemførelsen og overvågningen af og tilsynet med AI-systemer og AI-modeller til almen brug og AI-forvaltning, der er fastsat i Kommissionens afgørelse af 24. januar 2024; henvisninger i denne forordning til AI-kontoret forstås som henvisninger til Kommissionen
48) »national kompetent myndighed«: en bemyndigende myndighed eller en markedsovervågningsmyndighed; for så vidt angår AI-systemer, der tages i brug eller anvendes af EU-institutioner, -agenturer, -kontorer og -organer, forstås henvisninger til nationale kompetente myndigheder eller markedsovervågningsmyndigheder i denne forordning som henvisninger til Den Europæiske Tilsynsførende for Databeskyttelse
49) »alvorlig hændelse«: en hændelse eller funktionsfejl i et AI-system, som direkte eller indirekte fører til et af følgende udfald:
a) et menneskes død eller alvorlig skade på et menneskes helbred
b) en alvorlig og uoprettelig forstyrrelse i forvaltningen eller driften af kritisk infrastruktur
c) overtrædelse af forpligtelser i henhold til den del af EU-retten, der har til formål at beskytte de grundlæggende rettigheder
d) alvorlig skade på ejendom eller miljøet
50) »personoplysninger«: personoplysninger som defineret i artikel 4, nr. 1), i forordning (EU) 2016/679
51) »andre data end personoplysninger«: andre data end personoplysninger som defineret i artikel 4, nr. 1), i forordning (EU) 2016/679
52) »profilering«: profilering som defineret artikel 4, nr. 4), i forordning (EU) 2016/679
53) »plan for afprøvning under faktiske forhold«: et dokument, der beskriver mål, metode, geografisk, befolkningsmæssig og tidsmæssig rækkevidde, overvågning, tilrettelæggelse og gennemførelse af afprøvning under faktiske forhold
54) »sandkasseplan«: et dokument, der er opnået enighed om mellem den deltagende udbyder og den kompetente myndighed, og som beskriver mål, betingelser, tidsramme, metode og kravene for de aktiviteter, der udføres inden for sandkassen
55) »reguleringsmæssig AI-sandkasse«: en kontrolleret ramme, som er oprettet af en kompetent myndighed, og som giver udbydere eller potentielle udbydere af AI-systemer mulighed for, hvis det er relevant, under faktiske forhold at udvikle, træne, validere og afprøve et innovativt AI-system i henhold til en sandkasseplan i en begrænset periode under reguleringsmæssigt tilsyn
56) »AI-færdigheder«: færdigheder, viden og forståelse, der giver udbydere, idriftsættere og berørte personer mulighed for under hensyntagen til deres respektive rettigheder og forpligtelser i forbindelse med denne forordning at idriftsætte AI-systemer på et informeret grundlag samt at øge bevidstheden om muligheder og risici ved AI og den mulige skade, som den kan forvolde
57) »afprøvning under faktiske forhold«: midlertidig afprøvning af et AI-system med henblik på dets tilsigtede formål under faktiske forhold uden for et laboratorium eller på anden måde simuleret miljø med henblik på at indsamle pålidelige og solide data og vurdere og verificere AI-systemets overensstemmelse med kravene i denne forordning, og det er ikke ensbetydende med at bringe AI-systemet i omsætning eller ibrugtage det som omhandlet i denne forordning, forudsat at alle betingelserne i henhold til artikel 57 eller 60 er opfyldt
58) »forsøgsperson« med henblik på afprøvning under faktiske forhold: en fysisk person, der deltager i afprøvning under faktiske forhold
59) »informeret samtykke«: en forsøgspersons frie, specifikke, utvetydige og frivillige tilkendegivelse af sin vilje til at deltage i en bestemt afprøvning under faktiske forhold efter at være blevet informeret om alle aspekter af afprøvningen, der er relevante for forsøgspersonens beslutning om at deltage
60) »deepfake«: et ved hjælp af AI genereret eller manipuleret billed-, lyd- eller videoindhold, der i væsentlig grad ligner faktiske personer, genstande, steder, enheder eller begivenheder, og som fejlagtigt vil fremstå ægte eller sandfærdigt
61) »udbredt overtrædelse«: enhver handling eller undladelse, der er i strid med EU-retten, som beskytter enkeltpersoners interesser, og som:
a) har skadet eller må antages at kunne skade de kollektive interesser for enkeltpersoner med bopæl i mindst to medlemsstater ud over den medlemsstat, hvor:
i) handlingen eller undladelsen har sin oprindelse eller har fundet sted
ii) den pågældende udbyder eller, hvis det er relevant, dennes bemyndigede repræsentant befinder sig eller er etableret, eller
iii) idriftsætteren er etableret, når overtrædelsen bliver begået af idriftsætteren
b) har skadet, skader eller må antages at kunne skade enkeltpersoners kollektive interesser og har fælles træk, herunder samme ulovlige praksis og tilsidesættelse af den samme interesse, og begås samtidigt af den samme operatør i mindst tre medlemsstater
62) »kritisk infrastruktur«: kritisk infrastruktur som defineret i artikel 2, nr. 4), i direktiv (EU) 2022/2557
63) »AI-model til almen brug«: en AI-model, herunder når en sådan AI-model er trænet med en stor mængde data ved hjælp af selvovervågning i stor skala, som udviser betydelig generalitet og har kompetence til at udføre en lang række forskellige opgaver, uanset hvordan modellen bringes i omsætning, og som kan integreres i en række downstreamsystemer eller -applikationer, bortset fra AI-modeller, der anvendes til forsknings-, udviklings- og prototypeaktiviteter, inden de bringes i omsætning
64) »kapaciteter med stor virkning«: kapaciteter, som svarer til eller overstiger de kapaciteter, der er registreret i de mest avancerede AI-modeller til almen brug
65) »systemisk risiko«: en risiko, der er specifik for kapaciteter med stor virkning i AI-modeller til almen brug, og som har betydelig indvirkning på EU-markedet på grund af deres omfang eller på grund af faktiske negative virkninger, der med rimelighed kan forudses, for folkesundheden, sikkerheden, den offentlige sikkerhed, de grundlæggende rettigheder eller samfundet som helhed, som kan opformeres i stor skala i hele værdikæden
66) »AI-system til almen brug«: et AI-system, som er baseret på en AI-model til almen brug, og som har kapacitet til at opfylde en række forskellige formål, både til direkte anvendelse og til integration i andre AI-systemer
67) »flydende kommatalsberegning«: enhver matematisk beregning eller ligning, der omfatter flydende kommatal, som er en delmængde af de reelle tal, der typisk vises på computere i form af et heltal med fast præcision, som justeres med en heltalseksponent med fastlagt basis
68) »downstreamudbyder«: en udbyder af et AI-system, herunder et AI-system til almen brug, som integrerer en AI-model, uanset om AI-modellen leveres af udbyderen selv og integreres vertikalt eller leveres af en anden enhed på grundlag af kontraktforhold.
e) omsætning, ibrugtagning til dette specifikke formål eller anvendelse af AI-systemer, der opretter eller udvider ansigtsgenkendelsesdatabaser gennem ikkemålrettet indsamling af ansigtsbilleder fra internettet eller kameraovervågning
f) omsætning, ibrugtagning til dette specifikke formål eller anvendelse af AI-systemer til at udlede følelser hos en fysisk person på arbejdspladser og uddannelsesinstitutioner, undtagen hvis anvendelsen af AI-systemet er tilsigtet at blive bragt i omsætning af medicinske eller sikkerhedsmæssige årsager
g) omsætning, ibrugtagning til dette specifikke formål eller anvendelse af systemer til biometrisk kategorisering, som kategoriserer fysiske personer individuelt på grundlag af deres biometriske data med henblik på at udlede deres race, politiske anskuelser, fagforeningsmedlemskab, religiøse eller filosofiske overbevisning, seksuelle forhold eller seksuelle orientering; dette forbud omfatter ikke mærkning eller filtrering af lovligt indhentede biometriske datasæt såsom billeder på grundlag af biometriske data eller kategorisering af biometriske data på retshåndhævelsesområdet
h) anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse, medmindre og i det omfang en sådan anvendelse er strengt nødvendig til et af følgende formål:
i) målrettet eftersøgning af specifikke ofre for bortførelse, menneskehandel eller seksuel udnyttelse af mennesker samt eftersøgning af forsvundne personer
ii) forebyggelse af en specifik, væsentlig og overhængende trussel mod fysiske personers liv eller fysiske sikkerhed eller en reel og aktuel eller reel og forudsigelig trussel om et terrorangreb
iii) lokalisering eller identifikation af en person, der mistænkes for at have begået en strafbar handling, med henblik på en strafferetlig efterforskning af eller retsforfølgning eller fuldbyrdelse af en strafferetlig sanktion for overtrædelser, der er omhandlet i bilag II, og som i den pågældende medlemsstat kan straffes med frihedsstraf eller en anden frihedsberøvende foranstaltning af en maksimal varighed på mindst fire år.
Første afsnit, litra h), berører ikke artikel 9 i forordning (EU) 2016/679 med hensyn til behandling af biometriske data til andre formål end retshåndhævelse.
2. Anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse til et af de i stk. 1, første afsnit, litra h), omhandlede formål må kun idriftsættes til de formål, der er fastsat i nævnte litra, for at bekræfte den specifikt målrettede persons identitet og skal tage hensyn til følgende elementer:
a) karakteren af den situation, der giver anledning til den mulige anvendelse, navnlig alvorligheden, sandsynligheden og omfanget af den skade, der ville blive forvoldt, hvis systemet ikke blev anvendt
b) konsekvenserne for alle de berørte personers rettigheder og friheder, navnlig alvorligheden, sandsynligheden og omfanget af disse konsekvenser, hvis systemet anvendes.
Ved anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse til et af de i denne artikels stk. 1, første afsnit, litra h), omhandlede formål overholdes desuden nødvendige og forholdsmæssige sikkerhedsforanstaltninger og betingelser vedrørende anvendelsen i overensstemmelse med den nationale ret, der tillader anvendelse heraf, navnlig for så vidt angår tidsmæssige, geografiske og personmæssige begrænsninger. Anvendelsen af systemet til biometrisk fjernidentifikation i realtid på offentlige steder tillades kun, hvis den retshåndhævende myndighed har gennemført en konsekvensanalyse vedrørende grundlæggende rettigheder som fastsat i artikel 27 og har registreret systemet i EU-databasen i overensstemmelse med artikel 49. I behørigt begrundede hastende tilfælde kan anvendelsen af sådanne systemer dog påbegyndes uden registrering i EU-databasen, forudsat at registreringen afsluttes uden unødigt ophold.
3. Med henblik på stk. 1, første afsnit, litra h), og stk. 2, er hver anvendelse af et system til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse betinget af en forudgående tilladelse, der er udstedt af en judiciel myndighed eller en uafhængig administrativ myndighed, hvis afgørelse er bindende i den medlemsstat, hvor anvendelsen skal finde sted, på grundlag af en begrundet anmodning og i overensstemmelse med de nærmere regler i national ret, jf. stk. 5. I behørigt begrundede hastende tilfælde kan anvendelsen af et sådant system dog påbegyndes uden tilladelse, på betingelse af at der anmodes om en sådan tilladelse uden unødigt ophold og senest inden for 24 timer. Hvis en sådan tilladelse afvises, bringes anvendelsen straks til ophør, og alle data såvel som resultater og output af denne anvendelse kasseres og slettes omgående.
Den kompetente judicielle myndighed eller en uafhængig administrativ myndighed, hvis afgørelse er bindende, udsteder kun tilladelsen, hvis den på grundlag af objektive beviser eller klare indikationer, den får forelagt, finder det godtgjort, at anvendelsen af det pågældende system til biometrisk fjernidentifikation i realtid er nødvendig og forholdsmæssig for at opfylde et af de i stk. 1, første afsnit, litra h), anførte formål som anført i anmodningen og navnlig fortsat begrænses til, hvad der er strengt nødvendigt for så vidt angår tidsperioden samt det geografiske og personmæssige anvendelsesområde. Når den pågældende myndighed træffer afgørelse om anmodningen, tager den hensyn til de i stk. 2 omhandlede elementer. Der må ikke træffes nogen afgørelse, der har negative retsvirkninger for en person, udelukkende baseret på outputtet af systemet til efterfølgende biometrisk fjernidentifikation i realtid.
4. Uden at det berører stk. 3, skal hver anvendelse af et system til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse meddeles den relevante markedsovervågningsmyndighed og den nationale databeskyttelsesmyndighed i overensstemmelse med de nationale regler, jf. stk. 5. Meddelelsen skal som minimum indeholde de oplysninger, der er anført i stk. 6, og må ikke indeholde følsomme operationelle data.
5. En medlemsstat kan beslutte at give mulighed for helt eller delvist at tillade anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse inden for de begrænsninger og på de betingelser, der er nævnt i stk. 1, første afsnit, litra h), og stk. 2 og 3. De pågældende medlemsstater fastsætter i deres nationale ret de nødvendige nærmere regler for anmodning om, udstedelse af og benyttelse af samt tilsyn og indberetning i forbindelse med de i stk. 3 omhandlede tilladelser. Disse regler præciserer også, til hvilke af de i stk. 1, første afsnit, litra h), anførte formål, herunder for hvilke af de i litra h), nr. iii), nævnte strafbare handlinger, de kompetente myndigheder kan få tilladelse til at anvende disse systemer med henblik på retshåndhævelse. Medlemsstaterne meddeler Kommissionen disse regler senest 30 dage efter vedtagelsen heraf. Medlemsstaterne kan i overensstemmelse med EU-retten indføre mere restriktiv lovgivning om anvendelsen af systemer til biometrisk fjernidentifikation.
6. De nationale markedsovervågningsmyndigheder og de nationale databeskyttelsesmyndigheder i de medlemsstater, der er blevet underrettet om anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse i henhold til stk. 4, forelægger Kommissionen årlige rapporter om en sådan anvendelse. Med henblik herpå stiller Kommissionen efter anmodning om tilladelser i overensstemmelse med stk. 3 og resultatet heraf en skabelon til rådighed for medlemsstaterne og de nationale markedsovervågnings- og databeskyttelsesmyndigheder, herunder oplysninger om antallet af afgørelser, der er truffet af de kompetente judicielle myndigheder eller en uafhængig administrativ myndighed, hvis afgørelse er bindende.
7. Kommissionen offentliggør årlige rapporter om anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse på grundlag af aggregerede data i medlemsstaterne, der bygger på de i stk. 6 omhandlede årlige rapporter. Disse rapporter må ikke indeholde følsomme operationelle data om de tilknyttede retshåndhævelsesaktiviteter.
8. Denne artikel berører ikke de forbud, der gælder, hvis en form for AI-praksis overtræder anden EU-ret.
5. Kommissionen udarbejder efter høring af Det Europæiske Udvalg for Kunstig Intelligens (»AI-udvalget«) og senest den 2. februar 2026 retningslinjer, der præciserer den praktiske gennemførelse af denne artikel i overensstemmelse med artikel 96, sammen med en omfattende liste over praktiske eksempler på anvendelsestilfælde af AI-systemer, der er højrisiko og ikke højrisiko.
6. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre nærværende artikels stk. 3, andet afsnit, ved at tilføje nye betingelser til dem, der er fastsat i nævnte stykke, eller ved at ændre dem, hvis der foreligger konkret og pålidelig dokumentation for, at der findes AI-systemer, som hører under anvendelsesområdet i bilag III, men som ikke udgør en væsentlig risiko for skade på fysiske personers sundhed, sikkerhed eller grundlæggende rettigheder.
7. Kommissionen vedtager delegerede retsakter i overensstemmelse med artikel 97 for at ændre nærværende artikels stk. 3, andet afsnit, ved at lade enhver af de i nævnte stykke fastsatte betingelser udgå, hvis der foreligger konkret og pålidelig dokumentation for, at dette er nødvendigt for at opretholde det beskyttelsesniveauet for sundheden, sikkerheden og de grundlæggende rettigheder, der er fastsat ved denne forordning.
8. Enhver ændring af betingelserne i stk. 3, andet afsnit, vedtaget i overensstemmelse med denne artikels stk. 6 og 7, må ikke reducere det overordnede beskyttelsesniveau for sundheden, sikkerheden og de grundlæggende rettigheder, der er fastsat ved denne forordning, og sikrer overensstemmelse med de delegerede retsakter, der er vedtaget i henhold til artikel 7, stk. 1, og tager hensyn til den markedsmæssige og teknologiske udvikling.
g) i hvilket omfang personer, der er potentielt skadede eller er ofre for en negativ indvirkning, er afhængige af det resultat, et AI-system giver, navnlig hvis det af praktiske eller juridiske grunde ikke med rimelighed er muligt at fravælge resultatet
h) i hvilket omfang der er magtmæssig ubalance, eller de personer, der er potentielt skadede eller er ofre for en negativ indvirkning, befinder sig i en sårbar situation i forhold til idriftsætteren af et AI-system, navnlig som følge af status, autoritet, viden, økonomiske eller sociale omstændigheder eller alder
i) i hvilket omfang det resultat, der fremkommer ved inddragelse af et AI-system, let kan korrigeres eller ændres under hensyntagen til de tilgængelige tekniske løsninger til at korrigere eller ændre det, idet resultater, der har en negativ indvirkning på sundheden, sikkerheden eller de grundlæggende rettigheder, ikke anses for let at kunne korrigeres eller ændres
j) omfanget af og sandsynligheden for fordele ved idriftsættelsen af AI-systemet for enkeltpersoner, grupper eller samfundet som helhed, herunder mulige forbedringer af produktsikkerheden
k) i hvilket omfang gældende EU-ret indeholder bestemmelser om:
i) effektive retsmidler med hensyn til de risici, der er forbundet med et AI-system, med undtagelse af erstatningskrav
ii) effektive foranstaltninger til at forebygge eller i væsentlig grad minimere disse risici.
3. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre listen i bilag III ved at fjerne højrisiko-AI-systemer, hvis begge følgende betingelser er opfyldt:
a) det pågældende højrisiko-AI-system udgør ikke længere nogen væsentlig risiko for de grundlæggende rettigheder, sundheden eller sikkerheden under hensyntagen til kriterierne i stk. 2
b) fjernelsen reducerer ikke det generelle beskyttelsesniveau for sundhed, sikkerhed og grundlæggende rettigheder i henhold til EU-retten.
b) om nødvendigt gennemførelse af passende foranstaltninger til afbødning og kontrol, som imødegår risici, der ikke kan fjernes
c) tilvejebringelse af de oplysninger, der kræves i henhold til artikel 13, og, hvis det er relevant, træning af idriftsætterne.
Med henblik på fjernelse eller begrænsning af risici i forbindelse med anvendelsen af et højrisiko-AI-system tages der behørigt hensyn til den tekniske viden, erfaring, uddannelse og træning, som kan forventes af idriftsætteren, og den formodentlige kontekst, i hvilken systemet tilsigtes anvendt.
6. Højrisiko-AI-systemer afprøves med henblik på at identificere de mest hensigtsmæssige og målrettede risikostyringsforanstaltninger. Afprøvning sikrer, at højrisiko-AI-systemer yder konsistent i overensstemmelse med deres tilsigtede formål og overholder de krav, der er fastsat i denne afdeling.
7. Afprøvningsprocedurerne kan omfatte afprøvning under faktiske forhold i overensstemmelse med artikel 60.
8. Afprøvning af højrisiko-AI-systemer foretages på et hvilket som helst tidspunkt under hele udviklingsprocessen, alt efter hvad der er relevant, og under alle omstændigheder inden de bringes i omsætning eller ibrugtages. Afprøvningen foretages på grundlag af på forhånd definerede parametre og probabilistiske tærskler, der er passende i forhold til det tilsigtede formål med højrisiko-AI-systemet.
9. Ved gennemførelsen af det risikostyringssystem, der er fastsat i stk. 1-7, tager udbyderne hensyn til, om der i betragtning af det tilsigtede formål med højrisiko-AI-systemet er sandsynlighed for, at det har en negativ indvirkning på personer under 18 år og i relevant omfang på andre sårbare grupper.
10. For udbydere af højrisiko-AI-systemer, der er underlagt krav vedrørende interne risikostyringsprocesser i henhold til andre relevante bestemmelser i EU-retten, kan de aspekter, der er fastsat i stk. 1-9, være en del af eller kombineres med de risikostyringsprocedurer, der er fastlagt i henhold til den pågældende ret.
4. I datasæt tages der, i det omfang det er nødvendigt i lyset af deres tilsigtede formål, hensyn til de egenskaber eller elementer, der er særlige for den specifikke geografiske, kontekstuelle, adfærdsmæssige eller funktionelle ramme, inden for hvilken højrisiko-AI-systemet tilsigtes anvendt.
5. I det omfang det er strengt nødvendigt for at sikre, at bias i forbindelse med højrisiko-AI-systemer påvises og korrigeres i overensstemmelse med denne artikels stk. 2, litra f) og g), kan udbydere af sådanne systemer undtagelsesvis behandle særlige kategorier af personoplysninger, med forbehold af passende sikkerhedsforanstaltninger med hensyn til fysiske personers grundlæggende rettigheder og friheder. Ud over bestemmelserne i forordning (EU) 2016/679 og (EU) 2018/1725 samt direktiv (EU) 2016/680 skal følgende betingelser overholdes for at udføre en sådan behandling:
a) påvisning og korrektion af bias kan ikke opnås effektivt ved behandling af andre data, herunder syntetiske eller anonymiserede data
b) de særlige kategorier af personoplysninger er underlagt tekniske begrænsninger for videreanvendelse af personoplysninger og de mest avancerede sikkerhedsforanstaltninger og foranstaltninger til beskyttelse af privatlivet fred, herunder pseudonymisering
c) de særlige kategorier af personoplysninger er underlagt foranstaltninger, der skal sikre, at de behandlede personoplysninger er sikrede, beskyttede og omfattet af passende sikkerhedsforanstaltninger, herunder streng kontrol og dokumentation af adgangen, for at undgå misbrug og sikre, at kun autoriserede personer har adgang til disse personoplysninger med passende fortrolighedsforpligtelser
d) de særlige kategorier af personoplysninger må ikke transmitteres til, overføres til eller på anden måde tilgås af andre parter
e) de særlige kategorier af personoplysninger slettes, når bias er blevet korrigeret, eller når opbevaringsperioden for personoplysningerne udløber, alt efter hvad der indtræffer først
f) fortegnelserne over behandlingsaktiviteter i henhold til forordning (EU) 2016/679 og (EU) 2018/1725 samt direktiv (EU) 2016/680 indeholder en begrundelse for, hvorfor behandlingen af særlige kategorier af personoplysninger var strengt nødvendig for at opdage og korrigere bias, og hvorfor dette mål ikke kunne nås ved behandling af andre data.
6. Ved udvikling af højrisiko-AI-systemer, der ikke gør brug af teknikker, der omfatter træning af AI-modeller, finder stk. 2-5 kun anvendelse på afprøvningsdatasættene.
vii) hvis det er relevant, oplysninger, der sætter idriftsætterne i stand til at fortolke højrisiko-AI-systemets output og anvende det korrekt
c) eventuelle ændringer af højrisiko-AI-systemet og dets ydeevne, som udbyderen på forhånd har fastsat på tidspunktet for den indledende overensstemmelsesvurdering
d) foranstaltninger til menneskeligt tilsyn, jf. artikel 14, herunder de tekniske foranstaltninger, der er indført for at lette idriftsætternes fortolkning af højrisiko-AI-systemers output
e) de nødvendige beregningskrafts- og hardwareressourcer, højrisiko-AI-systemets forventede levetid og eventuelle nødvendige vedligeholdelses- og plejeforanstaltninger, herunder deres hyppighed, for at sikre, at AI-systemet fungerer korrekt, herunder med hensyn til softwareopdateringer
f) hvis det er relevant, en beskrivelse af de mekanismer, der er medtaget i højrisiko-AI-systemet, og som giver idriftsætterne mulighed for på korrekt vis at indsamle, lagre og fortolke logfilerne i overensstemmelse med artikel 12.
d) beslutte i en særlig situation ikke at anvende højrisiko-AI-systemet eller på anden måde se bort fra, tilsidesætte eller omgøre outputtet fra højrisiko-AI-systemet
e) gribe ind i højrisiko-AI-systemets drift eller afbryde systemet ved hjælp af en »stopknap« eller en lignende procedure, som gør det muligt at afbryde systemet i en sikker tilstand.
5. For så vidt angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, litra a), sikrer de foranstaltninger, der er omhandlet i denne artikels stk. 3, desuden, at idriftsætteren ikke foretager noget tiltag eller træffer nogen beslutninger på grundlag af en identifikation, der følger af systemet, medmindre denne identifikation er blevet verificeret og bekræftet særskilt af mindst to fysiske personer med den nødvendige kompetence, uddannelse og myndighed.
Kravet om særskilt verifikation foretaget af mindst to fysiske personer finder ikke anvendelse på højrisiko-AI-systemer, der anvendes med henblik på retshåndhævelse, migrationsstyring, grænsekontrol og asylforvaltning, hvis anvendelsen af dette krav efter EU-retten eller national ret skønnes uforholdsmæssig.
l) sikre, at højrisiko-AI-systemet overholder tilgængelighedskravene i overensstemmelse med direktiv (EU) 2016/2102 og (EU) 2019/882.
j) håndtering af kommunikation med nationale kompetente myndigheder, andre relevante myndigheder, herunder dem, der giver eller understøtter adgang til data, bemyndigede organer, andre operatører, kunder eller andre interesserede parter
k) systemer til og procedurer for registrering af al relevant dokumentation og alle relevante oplysninger
l) ressourceforvaltning, herunder foranstaltninger vedrørende forsyningssikkerhed
m) en ansvarlighedsramme, der fastlægger ledelsens og det øvrige personales ansvar med hensyn til alle de aspekter, der er anført i dette stykke.
2. Gennemførelsen af de aspekter, der er omhandlet i stk. 1, skal stå i et rimeligt forhold til størrelsen af udbyderens organisation. Udbyderne skal under alle omstændigheder respektere den grad af strenghed og det beskyttelsesniveau, der kræves for at sikre, at deres højrisiko-AI-systemer er i overensstemmelse med denne forordning.
3. Udbydere af højrisiko-AI-systemer, der er underlagt forpligtelser vedrørende kvalitetssikringssystemer eller en tilsvarende funktion i henhold til relevant sektorspecifik EU-ret, kan medtage de aspekter, der er anført i stk. 1, som en del af kvalitetsstyringssystemerne i henhold til denne ret.
4. For de udbydere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse, ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, anses forpligtelsen til at indføre et kvalitetsstyringssystem med undtagelse af denne artikels stk. 1, litra g), h) og i), for at være opfyldt ved overholdelse af reglerne om ordninger eller processer for intern ledelse i henhold til den relevante EU-ret om finansielle tjenesteydelser. Med henblik herpå tages der hensyn til alle de harmoniserede standarder, der er omhandlet i artikel 40.
e) hvis det er relevant, at overholde registreringsforpligtelserne, jf. artikel 49, stk. 1, eller, hvis registreringen foretages af udbyderen selv, sikre, at de oplysninger, der er omhandlet i bilag VIII, afsnit A, punkt 3, er korrekte.
Mandatet giver beføjelse til, at den bemyndigede repræsentant, ud over eller i stedet for udbyderen, kan modtage henvendelser fra de kompetente myndigheder om alle spørgsmål relateret til at sikre overholdelse af denne forordning.
4. Den bemyndigede repræsentant bringer mandatet til ophør, hvis vedkommende mener eller har grund til at mene, at udbyderen handler i strid med sine forpligtelser i henhold til denne forordning. I så fald underretter den omgående den relevante markedsovervågningsmyndighed samt, hvis det er relevant, det relevante bemyndigede organ om mandatets ophør og begrundelsen herfor.
7. Importører samarbejder med de relevante kompetente myndigheder om ethvert tiltag, som disse myndigheder foretager vedrørende et højrisiko-AI-system, som importørerne har bragt i omsætning, navnlig med henblik på at reducere eller afbøde de risici, som det udgør.
4. Udbyderen af et højrisiko-AI-system og den tredjepart, der leverer et AI-system, værktøjer, tjenester, komponenter eller processer, der anvendes eller integreres i et højrisiko-AI-system, skal ved skriftlig aftale præcisere de nødvendige oplysninger, kapacitet, teknisk adgang og anden bistand på grundlag af det generelt anerkendte aktuelle teknologiske niveau, så udbydere af højrisiko-AI-systemet er i stand til fuldt ud at overholde forpligtelserne i denne forordning. Dette stykke finder ikke anvendelse på tredjeparter, der gør andre værktøjer, tjenester, processer eller komponenter, der ikke er AI-modeller til almen brug, tilgængelige for offentligheden i henhold til en gratis open source-licens.
AI-kontoret kan udvikle og anbefale frivillige standardaftalevilkår mellem udbydere af højrisiko-AI-systemer og tredjeparter, der leverer værktøjer, tjenester, komponenter eller processer, som anvendes til eller integreres i højrisiko-AI-systemer. Når AI-kontoret udarbejder disse frivillige standardaftalevilkår, tager det også hensyn til eventuelle kontraktlige krav, der gælder i specifikke sektorer eller forretningsscenarier. De frivillige standardaftalevilkår offentliggøres og stilles gratis til rådighed i et letanvendeligt elektronisk format.
5. Stk. 2 og 3 berører ikke behovet for at overholde og beskytte intellektuelle ejendomsrettigheder, fortrolige forretningsoplysninger og forretningshemmeligheder i overensstemmelse med EU-retten og national ret.
Idriftsættere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse, ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, beholder logfilerne som en del af den dokumentation, der opbevares i henhold til den relevante EU-ret om finansielle tjenesteydelser.
7. Inden ibrugtagning eller anvendelse af et højrisiko-AI-system på arbejdspladsen informerer idriftsættere, som er arbejdsgivere, arbejdstagerrepræsentanter og de berørte arbejdstagere om, at de vil være omfattet af anvendelsen af højrisiko-AI-systemet. Denne information forelægges, hvis det er relevant, i overensstemmelse med de regler og procedurer, der er fastsat i EU-retten og EU-praksis og national ret og praksis om informering af arbejdstagere og deres repræsentanter.
8. Idriftsættere af højrisiko-AI-systemer, der er offentlige myndigheder eller EU-institutioner, -organer, -kontorer eller -agenturer, overholder de registreringsforpligtelser, der er omhandlet i artikel 49. Når sådanne idriftsættere konstaterer, at det højrisiko-AI-system, de påtænker at anvende, ikke er registreret i den EU-database, der er omhandlet i artikel 71, anvender de ikke dette system og underretter leverandøren eller distributøren.
9. Hvis det er relevant, anvender idriftsættere af højrisiko-AI-systemer de oplysninger, der er fastsat i henhold til denne forordnings artikel 13, til at overholde deres forpligtelse til at foretage en konsekvensanalyse vedrørende databeskyttelse i henhold til artikel 35 i forordning (EU) 2016/679 eller artikel 27 i direktiv (EU) 2016/680.
10. Uden at det berører direktiv (EU) 2016/680, anmoder idriftsætteren af et højrisiko-AI-system til efterfølgende biometrisk fjernidentifikation inden for rammerne af en efterforskning med henblik på en målrettet eftersøgning af en person, der er mistænkt eller tiltalt for at have begået en strafbar handling, om tilladelse fra en judiciel myndighed eller en administrativ myndighed, hvis afgørelse er bindende og underlagt domstolskontrol, til på forhånd eller uden unødigt ophold og senest inden for 48 timer at anvende det pågældende system, medmindre det anvendes til indledende identifikation af en potentiel mistænkt på grundlag af objektive og verificerbare kendsgerninger, der er direkte knyttet til overtrædelsen. Hver anvendelse begrænses til, hvad der er strengt nødvendigt for efterforskningen af en specifik strafbar handling.
Hvis den tilladelse, der er anmodet om i henhold til første afsnit, afvises, bringes anvendelsen af systemet til efterfølgende biometrisk fjernidentifikation, der er knyttet til denne tilladelse, der anmodes om, straks til ophør, og de personoplysninger, der er knyttet til anvendelsen af det højrisiko-AI-system, som der blev anmodet om tilladelse til, slettes.
Et sådant højrisiko-AI-system til efterfølgende biometrisk fjernidentifikation må under ingen omstændigheder anvendes til retshåndhævelsesformål på en ikkemålrettet måde uden nogen forbindelse til en strafbar handling, en straffesag, en reel og aktuel eller reel og forudsigelig trussel om en strafbar handling eller eftersøgning af en specifik forsvundet person. Det sikres, at der ikke træffes nogen afgørelse, der har negative retsvirkninger for en person, af de retshåndhævende myndigheder, udelukkende baseret på outputtet af sådanne systemer til efterfølgende biometrisk fjernidentifikation.
Dette stykke berører ikke artikel 9 i forordning (EU) 2016/679 og artikel 10 i direktiv (EU) 2016/680 med hensyn til behandling af biometriske data.
Uanset formålet eller idriftsætteren skal hver anvendelse af sådanne højrisiko-AI-systemer dokumenteres i det relevante politiregister og efter anmodning stilles til rådighed for den relevante markedsovervågningsmyndighed og den nationale databeskyttelsesmyndighed, undtagen hvis det drejer sig om videregivelse af følsomme operationelle data vedrørende retshåndhævelse. Dette afsnit berører ikke de beføjelser, der tillægges tilsynsmyndighederne ved direktiv (EU) 2016/680.
Idriftsættere forelægger årlige rapporter for de relevante markedsovervågningsmyndigheder og de relevante nationale databeskyttelsesmyndigheder om deres anvendelse af systemer til efterfølgende biometrisk fjernidentifikation, undtagen hvis det drejer sig om videregivelse af følsomme operationelle data vedrørende retshåndhævelse. Rapporterne kan samles for at dække mere end én idriftsættelse.
Medlemsstaterne kan i overensstemmelse med EU-retten indføre mere restriktiv lovgivning om anvendelsen af systemer til efterfølgende biometrisk fjernidentifikation.
11. Uden at det berører denne forordnings artikel 50, underretter idriftsættere af de i bilag III omhandlede højrisiko-AI-systemer, der træffer beslutninger eller bistår med at træffe beslutninger vedrørende fysiske personer, de fysiske personer om, at de er genstand for anvendelsen af et højrisiko-AI-system. For højrisiko-AI-systemer, der anvendes til retshåndhævelsesformål, finder artikel 13 i direktiv (EU) 2016/680 anvendelse.
12. Idriftsættere samarbejder med de relevante kompetente myndigheder om ethvert tiltag, som disse myndigheder foretager vedrørende højrisiko-AI-systemet, med henblik på gennemførelse af denne forordning.
4. Hvis nogle af de forpligtelser, der er fastsat i denne artikel, allerede er opfyldt ved den konsekvensanalyse vedrørende databeskyttelse, der foretages i henhold til artikel 35 i forordning (EU) 2016/679 eller artikel 27 i direktiv (EU) 2016/680, supplerer den i nærværende artikels stk. 1 omhandlede konsekvensanalyse vedrørende grundlæggende rettigheder den pågældende konsekvensanalyse vedrørende databeskyttelse.
5. AI-kontoret udarbejder en skabelon til et spørgeskema, herunder gennem et automatiseret værktøj, der skal gøre det lettere for idriftsættere at overholde deres forpligtelser i henhold til denne artikel på en forenklet måde.
8. Bemyndigede organer skal have procedurer for udførelsen af aktiviteterne, der tager behørigt hensyn til en udbyders størrelse, til den sektor, som den opererer inden for, til dens struktur og til, hvor kompleks det pågældende AI-system er.
9. Bemyndigede organer skal tegne en passende ansvarsforsikring for deres overensstemmelsesvurderingsaktiviteter, medmindre ansvaret i overensstemmelse med national ret ligger hos den medlemsstat, i hvilken de er etableret, eller medlemsstaten selv er direkte ansvarlig for overensstemmelsesvurderingen.
10. Bemyndigede organer skal være i stand til at udføre alle deres opgaver i henhold til denne forordning med den størst mulige faglige integritet og den nødvendige kompetence på det specifikke område, uanset om disse opgaver udføres af bemyndigede organer selv eller på deres vegne og på deres ansvar.
11. Bemyndigede organer skal have tilstrækkelige interne kompetencer til at kunne evaluere de opgaver, der udføres af eksterne parter på deres vegne, effektivt. Det bemyndigede organ skal have permanent adgang til tilstrækkeligt administrativt, teknisk, juridisk og videnskabeligt personale med erfaring og viden vedrørende de relevante typer af AI-systemer, de relevante data og den relevante databehandling og vedrørende kravene i afdeling 2.
12. Bemyndigede organer skal deltage i det koordinerende arbejde, jf. artikel 38. De skal også deltage direkte eller være repræsenteret i de europæiske standardiseringsorganisationer eller sikre, at de har et ajourført kendskab til relevante standarder.
a) vurdere indvirkningen på attester, der er udstedt af det bemyndigede organ
b) forelægge en rapport om sine resultater til Kommissionen og de øvrige medlemsstater senest tre måneder efter, at den har givet meddelelse om ændringerne af udpegelsen
c) pålægge det bemyndigede organ at suspendere eller tilbagetrække alle de attester, der uretmæssigt er blevet udstedt, inden for en rimelig tidsfrist, der fastsættes af myndigheden, for at sikre, at højrisiko-AI-systemer fortsat er i overensstemmelse hermed på markedet
d) underrette Kommissionen og medlemsstaterne om attester, som den har kræves suspenderet eller tilbagetrukket
e) give de nationale kompetente myndigheder i den medlemsstat, hvor udbyderen har sit registrerede forretningssted, alle relevante oplysninger om de attester, for hvilke den har krævet suspension eller tilbagetrækning. Den pågældende myndighed træffer de fornødne foranstaltninger, hvis det er nødvendigt, for at undgå en potentiel risiko for sundhed, sikkerhed eller grundlæggende rettigheder.
8. Med undtagelse af uretmæssigt udstedte attester og i tilfælde, hvor en udpegelse er blevet inddraget eller begrænset, vedbliver attesterne med at være gyldige i et af følgende tilfælde:
a) den bemyndigende myndighed har senest én måned efter suspensionen eller begrænsningen bekræftet, at der ikke er nogen risiko for sundhed, sikkerhed eller grundlæggende rettigheder vedrørende attester, der er berørt af suspensionen eller begrænsningen, og den bemyndigende myndighed har anført en frist for tiltag til at afhjælpe suspensionen eller begrænsningen, eller
b) den bemyndigende myndighed har bekræftet, at ingen attester af relevans for suspensionen vil blive udstedt, ændret eller genudstedt under suspensionen eller begrænsningen, og anfører, hvorvidt det bemyndigede organ har kapacitet til at fortsætte overvågningen og fortsat være ansvarligt for eksisterende udstedte attester i suspensions- eller begrænsningsperioden; hvis den bemyndigende myndighed fastslår, at det bemyndigede organ ikke er i stand til at støtte eksisterende udstedte attester, bekræfter udbyderen af det system, der er omfattet af attesten, senest tre måneder efter suspensionen eller begrænsningen skriftligt over for de nationale kompetente myndigheder i den medlemsstat, hvor vedkommende har sit registrerede forretningssted, at et andet kvalificeret bemyndiget organ midlertidigt varetager det bemyndigede organs funktioner med hensyn til at overvåge og forblive ansvarligt for attesterne i suspensions- eller begrænsningsperioden.
9. Med undtagelse af uretmæssigt udstedte attester og i tilfælde, hvor en udpegelse er blevet tilbagetrukket, vedbliver attesterne med at være gyldige i en periode på ni måneder i følgende tilfælde:
a) den nationale kompetente myndighed i den medlemsstat, hvor udbyderen af det højrisiko-AI-system, der er omfattet af attesten, har sit registrerede forretningssted, har bekræftet, at der ikke er nogen risiko for sundhed, sikkerhed eller grundlæggende rettigheder i forbindelse med de pågældende højrisiko-AI-systemer, og
b) et andet bemyndiget organ har skriftligt bekræftet, at det straks varetager ansvaret for disse AI-systemer, og færdiggør sin vurdering inden 12 måneder efter tilbagetrækning af udpegelsen.
Under de omstændigheder, der er omhandlet i første afsnit, kan den kompetente nationale myndighed i den medlemsstat, hvor udbyderen af det system, der er omfattet af attesten, har sit forretningssted, forlænge attesternes foreløbige gyldighed i yderligere perioder på tre måneder, dog i alt højst 12 måneder.
Den kompetente nationale myndighed eller det bemyndigede organ, der varetager funktionerne for det bemyndigede organ, der er berørt af ændringen af udpegelsen, underretter omgående Kommissionen, de øvrige medlemsstater og de øvrige bemyndigede organer herom.
4. Hvis en europæisk standardiseringsorganisation vedtager en harmoniseret standard og fremlægger denne for Kommissionen med henblik på offentliggørelse af referencen hertil i Den Europæiske Unions Tidende, skal Kommissionen foretage en vurdering af den harmoniserede standard i overensstemmelse med forordning (EU) nr. 1025/2012. Når referencen til en harmoniseret standard offentliggøres i Den Europæiske Unions Tidende, ophæver Kommissionen de gennemførelsesretsakter, der er omhandlet i stk. 1, eller dele deraf, der omfatter de samme krav, der er fastsat i dette kapitels afdeling 2 eller, hvis det er relevant, at de samme forpligtelser, der er fastsat i kapital V, afdeling 2 og 3.
5. Hvis udbydere af højrisiko-AI-systemer eller AI-modeller til almen brug ikke overholder de fælles specifikationer, der er omhandlet i stk. 1, skal de behørigt begrunde, at de har indført tekniske løsninger, der opfylder de krav, der er omhandlet i dette kapitels afdeling 2 eller, alt efter hvad der er relevant, overholder de forpligtelser, der er fastsat i kapital V, afdeling 2 og 3, i et omfang, som mindst svarer hertil.
6. Hvis en medlemsstat finder, at en fælles specifikation ikke fuldt ud opfylder kravene fastsat i afdeling 2 eller, alt efter hvad der er relevant, overholder forpligtelserne fastsat i kapital V, afdeling 2 og 3, underretter den Kommissionen herom med en detaljeret redegørelse. Kommissionen vurderer disse oplysninger og ændrer, hvis det er relevant, gennemførelsesretsakten om fastlæggelse af den pågældende fælles specifikation.
Med henblik på denne vurdering har bemyndigede organer, der er blevet notificeret i henhold til disse retsakter, ret til at kontrollere højrisiko-AI-systemernes overensstemmelse med kravene i afdeling 2, forudsat at disse bemyndigede organers overholdelse af kravene i artikel 31, stk. 4, 5, 10 og 11, er blevet vurderet i forbindelse med notifikationsproceduren i henhold til disse retsakter.
Hvis en retsakt, der er opført i bilag I, afsnit A, giver producenten mulighed for at fravælge en af tredjepart udført overensstemmelsesvurdering, forudsat at producenten har anvendt alle de harmoniserede standarder, der omfatter alle de relevante krav, kan producenten kun anvende denne mulighed, hvis vedkommende også har anvendt harmoniserede standarder eller, hvis det er relevant, fælles specifikationer omhandlet i artikel 41, der omfatter alle kravene i dette kapitels afdeling 2.
4. Højrisiko-AI-systemer, der allerede har været genstand for en overensstemmelsesvurderingsprocedure, skal underkastes en ny overensstemmelsesvurderingsprocedure i tilfælde af væsentlige ændringer, uanset om det ændrede system tilsigtes videredistribueret eller fortsat anvendes af den nuværende idriftsætter.
For højrisiko-AI-systemer, der bliver ved med at lære efter at være bragt i omsætning eller ibrugtaget, udgør ændringer af højrisiko-AI-systemet og dets ydeevne, som udbyderen har fastlagt på forhånd på tidspunktet for den indledende overensstemmelsesvurdering, og som er en del af oplysningerne i den tekniske dokumentation, der er omhandlet i bilag IV, punkt 2, litra f), ikke en væsentlig ændring.
5. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre bilag VI og VII ved at ajourføre dem i lyset af den tekniske udvikling.
6. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre nærværende artikels stk. 1 og 2 for at underkaste de i bilag III, punkt 2-8, omhandlede højrisiko-AI-systemer overensstemmelsesvurderingsproceduren i bilag VII eller dele heraf. Kommissionen vedtager sådanne delegerede retsakter under hensyntagen til effektiviteten af overensstemmelsesvurderingsproceduren på grundlag af intern kontrol omhandlet i bilag VI med hensyn til at forebygge eller minimere de risici for sundhed, sikkerhed og beskyttelsen af de grundlæggende rettigheder, som sådanne systemer medfører, samt hvorvidt der er tilstrækkelig kapacitet og ressourcer i de bemyndigede organer.
6. Hvis Kommissionen finder, at tilladelsen er uberettiget, tilbagetrækkes den af markedsovervågningsmyndigheden i den pågældende medlemsstat.
7. For højrisiko-AI-systemer vedrørende produkter, der er omfattet af EU-harmoniseringslovgivningen, som er opført i bilag I, afsnit A, finder kun undtagelserne fra overensstemmelsesvurderingen, der er fastsat i den pågældende EU-harmoniseringslovgivning, anvendelse.
Idriftsættere af et AI-system, der genererer eller manipulerer tekst, der offentliggøres med det formål at informere offentligheden om spørgsmål af offentlig interesse, skal oplyse, at teksten er blevet kunstigt genereret eller manipuleret. Denne forpligtelse finder ikke anvendelse, hvis anvendelsen ved lov er tilladt for at afsløre, forebygge, efterforske eller retsforfølge strafbare handlinger, eller hvis det AI-genererede indhold har gennemgået en proces med menneskelig gennemgang eller redaktionel kontrol, og hvis en fysisk eller juridisk person har det redaktionelle ansvar for offentliggørelsen af indholdet.
5. De oplysninger, der er omhandlet i stk. 1-4, gives til de pågældende fysiske personer på en klar og synlig måde senest på tidspunktet for den første interaktion eller eksponering. Oplysningerne skal være i overensstemmelse med gældende tilgængelighedskrav.
6. Stk. 1-4 berører ikke kravene og forpligtelserne i kapitel III og berører ikke andre gennemsigtighedsforpligtelser, der er fastsat i EU-retten eller national ret, for idriftsættere af AI-systemer.
7. AI-kontoret tilskynder til og letter udarbejdelsen af praksiskodekser på EU-plan for at lette en effektiv gennemførelse af forpligtelserne vedrørende påvisning og mærkning af kunstigt genereret eller manipuleret indhold. Kommissionen kan vedtage gennemførelsesretsakter for at godkende disse praksiskodekser efter proceduren i artikel 56, stk. 6. Hvis Kommissionen finder, at kodeksen ikke er tilstrækkelig, kan den vedtage en gennemførelsesretsakt, der præciserer de fælles regler for gennemførelsen af disse forpligtelser efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
3. Udbydere af AI-modeller til almen brug samarbejder om nødvendigt med Kommissionen og de nationale kompetente myndigheder i forbindelse med udøvelsen af deres kompetencer og beføjelser i henhold til denne forordning.
4. Udbydere af AI-modeller til almen brug kan basere sig på praksiskodekser som omhandlet i artikel 56 for at påvise overholdelse af forpligtelserne i nærværende artikels stk. 1, indtil der er offentliggjort en harmoniseret standard. Overholdelse af europæiske harmoniserede standarder giver udbydere formodning om overensstemmelse, i det omfang disse standarder dækker disse forpligtelser. Udbydere af AI-modeller til almen brug, som ikke overholder en godkendt praksiskodeks, eller som ikke overholder en europæisk harmoniseret standard, skal påvise alternative passende måder for overensstemmelse med henblik på Kommissionens vurdering.
5. For at lette overholdelsen af bilag XI, navnlig punkt 2, litra d) og e), i nævnte bilag, tillægges Kommissionen beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at præcisere måle- og beregningsmetoder med henblik på at muliggøre sammenlignelig og verificerbar dokumentation.
6. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97, stk. 2, for at ændre bilag XI og XII i lyset af den teknologiske udvikling.
7. Alle de oplysninger eller al den dokumentation, der indhentes i henhold til denne artikel, herunder forretningshemmeligheder, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
6. Forpligtelsen i denne artikel finder ikke anvendelse på udbydere af AI-modeller til almen brug, der frigives i henhold til en gratis open source-licens, der giver mulighed for adgang til, anvendelse, ændring og distribution af modellen, og hvis parametre, herunder vægtene, oplysningerne om modelarkitekturen og oplysningerne om modelanvendelsen, gøres offentligt tilgængelige, medmindre AI-modellen til almen brug frembyder systemiske risici.
6. AI-kontoret og AI-udvalget overvåger og evaluerer regelmæssigt deltagernes realisering af praksiskodeksernes mål og deres bidrag til en korrekt anvendelse af denne forordning. AI-kontoret og AI-udvalget vurderer, om praksiskodekserne dækker de forpligtelser, der er fastsat i artikel 53 og 55, og overvåger og evaluerer regelmæssigt realiseringen af deres mål. De offentliggør deres vurdering af, om praksiskodekserne er fyldestgørende.
Kommissionen kan ved en gennemførelsesretsakt godkende en praksiskodeks og give den generel gyldighed i Unionen. Denne gennemførelsesretsakt vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
7. AI-kontoret kan opfordre samtlige udbydere af AI-modeller til almen brug til at overholde praksiskodekser. For udbydere af AI-modeller til almen brug, der ikke frembyder systemiske risici, kan denne overholdelse begrænses til de forpligtelser, der er fastsat i artikel 53, medmindre de udtrykkeligt tilkendegiver deres interesse i at tilslutte sig den fulde kodeks.
8. AI-kontoret skal, alt efter hvad der er relevant, også tilskynde til og lette gennemgangen og tilpasningen af praksiskodekserne, navnlig i lyset af nye standarder. AI-kontoret bistår ved vurderingen af tilgængelige standarder.
9. Praksiskodekser skal være klar senest den 2. maj 2025. AI-kontoret tager de nødvendige skridt, herunder indbyder udbydere i henhold til stk. 7.
Hvis en praksiskodeks ikke kan færdiggøres senest den 2. august 2025, eller hvis AI-kontoret efter sin vurdering i henhold til denne artikels stk. 6 finder, at den ikke er fyldestgørende, kan Kommissionen ved hjælp af gennemførelsesretsakter fastsætte fælles regler for gennemførelsen af de forpligtelser, der er fastsat i artikel 53 og 55, herunder spørgsmålene i nærværende artikels stk. 2. Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
Efter anmodning fra udbyderen eller den potentielle udbyder af AI-systemet forelægger den kompetente myndighed en skriftlig dokumentation for de aktiviteter, der er udført med succes i sandkassen. Den kompetente myndighed forelægger også en slutrapport med en detaljeret beskrivelse af de aktiviteter, der er gennemført i sandkassen, og de dermed forbundne resultater og læringsresultater. Udbydere kan anvende sådan dokumentation til at påvise, at de overholder denne forordning gennem overensstemmelsesvurderingsprocessen eller relevante markedsovervågningsaktiviteter. I denne forbindelse tager markedsovervågningsmyndighederne og de bemyndigede organer positivt hensyn til slutrapporterne og den skriftlige dokumentation fra den nationale kompetente myndighed med henblik på at fremskynde overensstemmelsesvurderingsprocedurerne i rimeligt omfang.
8. Med forbehold af fortrolighedsbestemmelserne i artikel 78 og med samtykke fra udbyderen eller den potentielle udbyder har Kommissionen og AI-udvalget tilladelse til at få adgang til slutrapporterne og tager, alt efter hvad der er relevant, hensyn til disse, når de udfører deres opgaver i henhold til denne forordning. Hvis både udbyderen eller den potentielle udbyder og den nationale kompetente myndighed når til udtrykkelig enighed, kan slutrapporten gøres offentligt tilgængelig via den centrale informationsplatform, der er omhandlet i nærværende artikel.
9. Oprettelsen af reguleringsmæssige AI-sandkasser har til formål at bidrage til følgende mål:
a) at forbedre retssikkerheden med henblik på at opnå overholdelse af bestemmelserne i denne forordning eller, hvis det er relevant, anden gældende EU-ret og national ret
b) at støtte udvekslingen af bedste praksis gennem samarbejde med de myndigheder, der er involveret i den reguleringsmæssige AI-sandkasse
c) at fremme innovation og konkurrenceevne og lette udviklingen af et AI-økosystem
d) at bidrage til evidensbaseret lovgivningsmæssig læring
e) at lette og fremskynde adgangen til EU-markedet for AI-systemer, navnlig når de leveres af SMV'er, herunder iværksættervirksomheder.
10. I det omfang de innovative AI-systemer omfatter behandling af personoplysninger eller på anden måde henhører under tilsynsområdet for andre nationale myndigheder eller kompetente myndigheder, der giver eller understøtter adgang til data, sikrer de nationale kompetente myndigheder, at de nationale databeskyttelsesmyndigheder og disse andre nationale eller kompetente myndigheder er tilknyttet driften af den reguleringsmæssige AI-sandkasse og involveret i tilsynet med disse aspekter i henhold til deres respektive opgaver og beføjelser.
11. De reguleringsmæssige AI-sandkasser berører ikke de tilsynsbeføjelser eller korrigerende beføjelser, som de kompetente myndigheder, der fører tilsyn med sandkasserne, har, herunder på regionalt eller lokalt plan. Enhver væsentlig risiko for sundhed og sikkerhed og grundlæggende rettigheder, der konstateres under udviklingen og afprøvningen af sådanne AI-systemer, fører til passende afbødning. De nationale kompetente myndigheder har beføjelse til midlertidigt eller permanent at suspendere afprøvningsprocessen eller deltagelse i sandkassen, hvis der ikke er mulighed for effektiv afbødning, og meddeler AI-kontoret denne afgørelse. De nationale kompetente myndigheder udøver deres tilsynsbeføjelser inden for rammerne af den relevante ret, idet de anvender deres skønsbeføjelser, når de gennemfører retlige bestemmelser for et specifikt projekt vedrørende reguleringsmæssige AI-sandkasser, med det formål at støtte innovation inden for AI i Unionen.
12. Udbydere og potentielle udbydere, der deltager i den reguleringsmæssige AI-sandkasse, forbliver ansvarlige i henhold til gældende EU-ansvarsret og gældende national ansvarsret for enhver skade, der påføres tredjeparter som følge af de forsøg, der finder sted i sandkassen. Såfremt de potentielle udbydere overholder den specifikke plan og vilkårene og betingelserne for deres deltagelse og i god tro følger den nationale kompetente myndigheds vejledning, pålægger myndighederne dog ingen administrative bøder for overtrædelse af denne forordning. I tilfælde af at andre kompetente myndigheder med ansvar for anden EU-ret og national ret har været aktivt involveret i tilsynet med AI-systemet i sandkassen og givet vejledning om overholdelse, pålægges der ingen administrative bøder i forbindelse med den pågældende ret.
13. De reguleringsmæssige AI-sandkasser udformes og gennemføres på en sådan måde, at de letter det grænseoverskridende samarbejde mellem de nationale kompetente myndigheder, hvis det er relevant.
14. De nationale kompetente myndigheder koordinerer deres aktiviteter og samarbejder inden for AI-udvalgets rammer.
15. De nationale kompetente myndigheder underretter AI-kontoret og AI-udvalget om oprettelsen af en sandkasse og kan anmode dem om støtte og vejledning. AI-kontoret offentliggør en liste over planlagte og eksisterende sandkasser og ajourfører den for at tilskynde til større interaktion i de reguleringsmæssige AI-sandkasser og tværnationalt samarbejde.
16. De nationale kompetente myndigheder forelægger AI-kontoret og AI-udvalget årlige rapporter, fra og med ét år efter oprettelsen af den reguleringsmæssige AI-sandkasse og derefter hvert år indtil dens ophør, og en slutrapport. Disse rapporter skal indeholde oplysninger om fremskridt med og resultater af gennemførelsen af de pågældende sandkasser, herunder bedste praksis, hændelser, indhøstede erfaringer og anbefalinger vedrørende deres udformning og, hvis det er relevant, anvendelsen og den eventuelle revision af denne forordning, herunder tilhørende delegerede retsakter og gennemførelsesretsakter, og anvendelsen af anden EU-ret, som de kompetente myndigheder fører tilsyn med inden for sandkassen. De nationale kompetente myndigheder gør disse årlige rapporter eller sammendrag heraf offentligt tilgængelige online. Kommissionen tager, hvis det er relevant, hensyn til de årlige rapporter, når den udfører sine opgaver i henhold til denne forordning.
17. Kommissionen udvikler en fælles og særlig grænseflade, der indeholder alle relevante oplysninger vedrørende reguleringsmæssige AI-sandkasser, for at give interessenter mulighed for at interagere med reguleringsmæssige AI-sandkasser og rette forespørgsler til de kompetente myndigheder og søge ikkebindende vejledning om overensstemmelsen af innovative produkter, tjenester og forretningsmodeller, der integrerer AI-teknologier, i overensstemmelse med artikel 62, stk. 1, litra c). Kommissionen koordinerer proaktivt med nationale kompetente myndigheder, hvis det er relevant.
e) at de ved hjælp af læringsresultaterne fra de reguleringsmæssige AI-sandkasser gør det lettere for udbydere og potentielle udbydere at overholde overensstemmelsesvurderingsforpligtelserne i henhold til denne forordning og frivilligt at anvende adfærdskodekserne, som er omhandlet i artikel 95
f) at de reguleringsmæssige AI-sandkasser letter inddragelsen af andre relevante aktører inden for AI-økosystemet såsom bemyndigede organer og standardiseringsorganisationer, SMV'er, herunder iværksættervirksomheder, virksomheder, innovatorer, afprøvnings- og forsøgsfaciliteter, forsknings- og forsøgslaboratorier og europæiske digitale innovationsknudepunkter, ekspertisecentre, individuelle forskere, med henblik på at muliggøre og lette samarbejdet med den offentlige og private sektor
g) at procedurer, processer og administrative krav vedrørende ansøgning om, udvælgelse af, deltagelse i og udtræden af den reguleringsmæssige AI-sandkasse er enkle, letforståelige og klart kommunikeret, så det bliver lettere for SMV'er, herunder iværksættervirksomheder, med begrænset juridisk og administrativ kapacitet at deltage, og strømlines i hele Unionen for at undgå fragmentering, samt at deltagelse i en reguleringsmæssig AI-sandkasse oprettet af en medlemsstat eller af Den Europæiske Tilsynsførende for Databeskyttelse anerkendes gensidigt og ensartet og har samme retsvirkning i hele Unionen
h) at deltagelse i den reguleringsmæssige AI-sandkasse begrænses til en periode, der er passende til projektets kompleksitet og omfang, og som kan forlænges af den nationale kompetente myndighed
i) at reguleringsmæssige AI-sandkasser letter udviklingen af værktøjer og infrastruktur til afprøvning, benchmarking, vurdering og forklaring af dimensioner af AI-systemer, der er relevante for reguleringsmæssig læring såsom nøjagtighed, robusthed og cybersikkerhed, samt foranstaltninger til at mindske risici for de grundlæggende rettigheder og samfundet som helhed.
3. Potentielle udbydere i de reguleringsmæssige AI-sandkasser, navnlig SMV'er og iværksættervirksomheder, henvises, hvis det er relevant, til føridriftsættelsestjenester såsom vejledning om gennemførelsen af denne forordning, til andre værdiforøgende tjenester såsom hjælp med standardiseringsdokumenter og certificering, afprøvnings- og forsøgsfaciliteter, europæiske digitale innovationsknudepunkter og ekspertisecentre.
4. Hvis de nationale kompetente myndigheder overvejer at tillade afprøvning under faktiske forhold under tilsyn inden for rammerne af en reguleringsmæssig AI-sandkasse, der skal oprettes i henhold til denne artikel, aftaler de specifikt vilkårene og betingelserne for en sådan afprøvning og navnlig de fornødne sikkerhedsforanstaltninger med deltagerne med henblik på at beskytte de grundlæggende rettigheder, sundheden og sikkerheden. Hvis det er relevant, samarbejder de med andre nationale kompetente myndigheder med henblik på at sikre en ensartet praksis i hele Unionen.
d) alle personoplysninger, der skal behandles i forbindelse med sandkassen, skal befinde sig i et funktionelt adskilt, isoleret og beskyttet databehandlingsmiljø under den potentielle udbyders kontrol, og kun autoriserede personer har adgang til disse data
e) udbyderne kan kun dele de oprindeligt indsamlede data yderligere i overensstemmelse med EU-databeskyttelsesretten; personoplysninger, der er skabt i sandkassen, kan ikke deles uden for sandkassen
f) enhver behandling af personoplysninger i forbindelse med sandkassen fører hverken til foranstaltninger eller afgørelser, der berører de registrerede, eller påvirker anvendelsen af deres rettigheder fastsat i EU-retten om beskyttelse af personoplysninger
g) alle personoplysninger, der skal behandles i forbindelse med sandkassen, skal beskyttes gennem passende tekniske og organisatoriske foranstaltninger og slettes, når deltagelsen i sandkassen afsluttes, eller når opbevaringsperioden for personoplysningerne udløber
h) logfilerne over behandlingen af personoplysninger i forbindelse med sandkassen opbevares, så længe de deltager i sandkassen, medmindre andet er fastsat i EU-retten eller national ret
i) en fuldstændig og detaljeret beskrivelse af processen og begrundelsen for træningen, afprøvningen og valideringen af AI-systemet opbevares sammen med afprøvningsresultaterne som en del af den tekniske dokumentation omhandlet i bilag IV
j) der offentliggøres på de kompetente myndigheders websted et kort resumé af det AI-projekt, der er udviklet i sandkassen, dets mål og dets forventede resultater; denne forpligtelse omfatter ikke følsomme operationelle oplysninger i forbindelse med aktiviteter, der udføres af retshåndhævende myndigheder, grænsekontrolmyndigheder, indvandringsmyndigheder eller asylmyndigheder.
2. Med henblik på at forebygge, efterforske, opdage eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner, herunder beskytte mod og forebygge trusler mod den offentlige sikkerhed, under de retshåndhævende myndigheders kontrol og ansvar baseres behandlingen af personoplysninger i reguleringsmæssige AI-sandkasser på særlig EU-ret eller national ret og på de samme kumulative betingelser som omhandlet i stk. 1.
3. Stk. 1 berører ikke EU-ret eller national ret, der udelukker behandling til andre formål end dem, der udtrykkeligt er nævnt i den pågældende ret, og heller ikke EU-ret eller national ret, der fastsætter grundlaget for behandling af personoplysninger, som er nødvendig med henblik på udvikling, afprøvning eller træning af innovative AI-systemer, eller noget andet retsgrundlag, der overholder EU-retten om beskyttelse af personoplysninger.
d) den udbyder eller potentielle udbyder, der udfører afprøvningen under faktiske forhold, er etableret i Unionen eller har udpeget en retlig repræsentant, der er etableret i Unionen
e) data, der indsamles og behandles med henblik på afprøvning under faktiske forhold, må kun overføres til tredjelande, forudsat at der er gennemført passende og gældende sikkerhedsforanstaltninger i henhold til EU-retten
f) afprøvningen under faktiske forhold varer ikke længere end nødvendigt for at nå målene herfor og under ingen omstændigheder længere end seks måneder, som kan forlænges i en yderligere periode på seks måneder, forudsat at udbyderen eller den potentielle udbyder på forhånd har underrettet markedsovervågningsmyndigheden ledsaget af en redegørelse for behovet for en sådan forlængelse
g) de personer, der er genstand for afprøvningen under faktiske forhold, og som er personer, der tilhører sårbare grupper på grund af deres alder eller handicap, beskyttes på passende vis
h) hvis en udbyder eller potentiel udbyder organiserer afprøvningen under faktiske forhold i samarbejde med en eller flere idriftsættere eller potentielle idriftsættere, er sidstnævnte blevet informeret om alle de aspekter af afprøvningen, der er relevante for deres beslutning om at deltage, og har modtaget den relevante brugsanvisning til AI-systemet, jf. artikel 13; udbyderen eller den potentielle udbyder og idriftsætteren eller den potentielle idriftsætter skal indgå en aftale, der præciserer deres roller og ansvar med henblik på at sikre overholdelse af bestemmelserne om afprøvning under faktiske forhold i henhold til denne forordning og i henhold til anden gældende EU-ret og national ret
i) de personer, der er genstand for afprøvningen under faktiske forhold, har givet informeret samtykke i overensstemmelse med artikel 61 eller i tilfælde af retshåndhævelse, hvis indhentning af informeret samtykke ville forhindre, at AI-systemet afprøves, og selve afprøvningen og resultatet af afprøvningen under faktiske forhold må ikke have nogen negativ indvirkning på forsøgspersonerne, og deres personoplysninger slettes, efter at afprøvningen er udført
j) afprøvningen under faktiske forhold overvåges effektivt af udbyderen eller den potentielle udbyder samt af idriftsættere eller potentielle idriftsættere gennem personer, der er tilstrækkeligt kvalificerede på det relevante område og har den nødvendige kapacitet, uddannelse og myndighed til at udføre deres opgaver
k) AI-systemets forudsigelser, anbefalinger eller beslutninger kan effektivt omgøres og tilsidesættes.
5. Enhver forsøgsperson, der medvirker i afprøvningen under faktiske forhold, eller vedkommendes retligt udpegede repræsentant, alt efter hvad der er relevant, kan, uden at det medfører ulemper og uden at skulle give nogen begrundelse, når som helst trække sig tilbage fra afprøvningen ved at trække sit informerede samtykke tilbage og anmode om øjeblikkeligt og permanent at få sine personoplysninger slettet. Tilbagetrækningen af det informerede samtykke berører ikke de allerede udførte aktiviteter.
6. I overensstemmelse med artikel 75 tillægger medlemsstaterne deres markedsovervågningsmyndigheder beføjelser til at kræve oplysninger, som udbydere og potentielle udbydere skal indgive, til at foretage uanmeldte fjerninspektioner eller inspektioner på stedet og til at foretage kontrol af, hvordan afprøvningen udføres under faktiske forhold, og de relaterede højrisiko-AI-systemer. Markedsovervågningsmyndighederne anvender disse beføjelser til at sørge for, at afprøvningen under faktiske forhold forløber sikkert.
7. Enhver alvorlig hændelse, der konstateres under afprøvningen under faktiske forhold, indberettes til den nationale markedsovervågningsmyndighed i overensstemmelse med artikel 73. Udbyderen eller den potentielle udbyder træffer straks afbødende foranstaltninger eller, hvis dette ikke er muligt, suspenderer afprøvningen under faktiske forhold, indtil en sådan afhjælpning finder sted, eller, hvis dette ikke sker, bringer den til ophør. Udbyderen eller den potentielle udbyder indfører en procedure for øjeblikkelig tilbagekaldelse af AI-systemet efter en sådan afslutning af afprøvningen under faktiske forhold.
8. Udbydere eller potentielle udbydere giver den nationale markedsovervågningsmyndighed i den medlemsstat, hvor afprøvningen under faktiske forhold udføres, meddelelse om suspensionen eller afslutningen af afprøvningen under faktiske forhold og om de endelige resultater.
9. Udbyderen eller den potentielle udbyder er ansvarlige i henhold til gældende EU-ansvarsret og gældende national ansvarsret for enhver skade, der forvoldes i forbindelse med deres afprøvning under faktiske forhold.
c) tilrettelægge passende kommunikationskampagner for at øge bevidstheden om de forpligtelser, der følger af denne forordning
d) evaluere og fremme konvergensen af bedste praksis i offentlige udbudsprocedurer i forbindelse med AI-systemer.
7. AI-udvalget skal være organiseret og arbejde på en sådan måde, at der i dets arbejde sikres objektivitet og uvildighed.
8. AI-udvalgets formandskab varetages af en af repræsentanterne for medlemsstaterne. AI-kontoret varetager sekretariatsfunktionen for AI-udvalget, indkalder til møderne efter anmodning fra formanden og udarbejder dagsordenen i overensstemmelse med AI-udvalgets opgaver i henhold til denne forordning og dens forretningsorden.
iv) om anvendelsen af harmoniserede standarder eller fælles specifikationer, der er omhandlet i artikel 40 og 41
v) tendenser såsom europæisk global konkurrenceevne inden for AI, udbredelsen af AI i Unionen og udviklingen af digitale færdigheder
vi) tendenser vedrørende udviklingen i typologien af AI-værdikæder, navnlig vedrørende de deraf følgende konsekvenser med hensyn til ansvarlighed
vii) om det potentielle behov for ændring af bilag III i overensstemmelse med artikel 7 og om det potentielle behov for en eventuel revision af artikel 5 i medfør af artikel 112 under hensyntagen til relevant tilgængelig dokumentation og den seneste teknologiske udvikling
f) støtte Kommissionen i at fremme AI-færdigheder, offentlighedens kendskab til og forståelse af fordele, risici, sikkerhedsforanstaltninger og rettigheder og forpligtelser i forbindelse med anvendelsen af AI-systemer
g) lette udarbejdelsen af fælles kriterier og en fælles forståelse blandt markedsoperatører og kompetente myndigheder af de relevante begreber i denne forordning, herunder ved at bidrage til udarbejdelse af benchmarks
h) samarbejde, alt efter hvad der er relevant, med andre EU-institutioner, -organer, -kontorer og -agenturer samt relevante EU-ekspertgrupper og -netværk, navnlig inden for produktsikkerhed, cybersikkerhed, konkurrence, digitale tjenester og medietjenester, finansielle tjenesteydelser, forbrugerbeskyttelse, databeskyttelse og beskyttelse af grundlæggende rettigheder
i) bidrage til et effektivt samarbejde med de kompetente myndigheder i tredjelande og med internationale organisationer
j) bistå de nationale kompetente myndigheder og Kommissionen med udviklingen af den organisatoriske og tekniske ekspertise, der er nødvendig for gennemførelsen af denne forordning, herunder ved at bidrage til vurderingen af uddannelsesbehovene for personale i de medlemsstater, der er involveret i gennemførelsen af denne forordning
k) bistå AI-kontoret med at støtte de nationale kompetente myndigheder i etableringen og udviklingen af reguleringsmæssige AI-sandkasser og lette samarbejdet og informationsudvekslingen mellem reguleringsmæssige AI-sandkasser
l) bidrage til og yde relevant rådgivning om udarbejdelsen af vejledningsdokumenter
m) rådgive Kommissionen i forbindelse med internationale spørgsmål om AI
n) afgive udtalelser til Kommissionen om de kvalificerede varslinger vedrørende AI-modeller til almen brug
o) modtage udtalelser fra medlemsstaterne om kvalificerede varslinger vedrørende AI-modeller til almen brug og om nationale erfaringer og praksis vedrørende overvågning og håndhævelse af AI-systemer, navnlig de systemer, der integrerer AI-modeller til almen brug.
v) bidrage til udviklingen af værktøjer og skabeloner
b) støtte markedsovervågningsmyndighederne arbejde efter disses anmodning
c) støtte grænseoverskridende markedsovervågningsaktiviteter som omhandlet i artikel 74, stk. 11, uden at dette berører markedsovervågningsmyndighedernes beføjelser
d) støtte AI-kontoret i udførelsen af dets opgaver inden for rammerne af EU-beskyttelsesproceduren i henhold til artikel 81.
4. Eksperterne i det videnskabelige panel udfører deres opgaver uvildigt og objektivt og sikrer fortroligheden af de oplysninger og data, der er indhentet under udførelsen af deres opgaver og aktiviteter. De må hverken søge eller modtage instrukser fra nogen, når de udfører deres opgaver i henhold til stk. 3. Hver ekspert udfærdiger en interesseerklæring, der gøres offentligt tilgængelig. AI-kontoret etablerer systemer og procedurer til aktivt at håndtere og forebygge potentielle interessekonflikter.
5. Den gennemførelsesretsakt, der er omhandlet i stk. 1, skal indeholde bestemmelser om betingelserne, procedurerne og de nærmere ordninger for, hvordan det videnskabelige panel og dets medlemmer kan sende varslinger og anmode AI-kontoret om bistand til udførelsen af det videnskabelige panels opgaver.
7. Kommissionen letter udvekslingen af erfaringer mellem de nationale kompetente myndigheder.
8. De nationale kompetente myndigheder kan yde vejledning og rådgivning om gennemførelsen af denne forordning, navnlig til SMV'er, herunder iværksættervirksomheder, under hensyntagen til AI-udvalgets og Kommissionens vejledning og rådgivning, alt efter hvad der er relevant. Når de nationale kompetente myndigheder agter at yde vejledning og rådgivning i forbindelse med et AI-system på områder, der er omfattet af anden EU-ret, skal de nationale kompetente myndigheder i henhold til denne EU-ret høres, alt efter hvad der er relevant.
9. Hvis EU-institutioner, -organer, -kontorer eller -agenturer er omfattet af denne forordnings anvendelsesområde, fungerer Den Europæiske Tilsynsførende for Databeskyttelse som den kompetente myndighed for tilsynet med dem.
8. Markedsovervågningsmyndigheden træffer passende foranstaltninger, jf. artikel 19 i forordning (EU) 2019/1020, senest syv dage fra den dato, hvor den modtog den i nærværende artikels stk. 1 omhandlede indberetning, og følger indberetningsprocedurerne som fastsat i nævnte forordning.
9. I forbindelse med de i bilag III omhandlede højrisiko-AI-systemer, der bringes i omsætning eller ibrugtages af udbydere, som er underlagt Unionens lovgivningsmæssige instrumenter om indberetningsforpligtelser svarende til dem, der er fastsat i denne forordning, begrænses indberetningen af alvorlige hændelser til dem, der er omhandlet i artikel 3, nr. 49), litra c).
10. For højrisiko-AI-systemer, som er sikkerhedskomponenter i udstyr, eller som selv er udstyr, der er omfattet af forordning (EU) 2017/745 og (EU) 2017/746, begrænses indberetningen af alvorlige hændelser til dem, der er omhandlet i nærværende forordnings artikel 3, nr. 49), litra c), og foretages til den nationale kompetente myndighed, som er valgt til dette formål af den medlemsstat, hvor hændelsen fandt sted.
11. De nationale kompetente myndigheder underretter omgående Kommissionen om enhver alvorlig hændelse, uanset om de har foretaget tiltag desangående, i overensstemmelse med artikel 20 i forordning (EU) 2019/1020.
6. For så vidt angår højrisiko-AI-systemer, der bringes i omsætning, ibrugtages eller anvendes af finansielle institutioner, der er omfattet af EU-retten om finansielle tjenesteydelser, er markedsovervågningsmyndigheden med henblik på denne forordning den relevante nationale myndighed, der i henhold til nævnte lovgivning er ansvarlig for det finansielle tilsyn med disse institutioner, såfremt omsætningen, ibrugtagningen eller anvendelsen af AI-systemet er i direkte forbindelse med leveringen af disse finansielle tjenesteydelser.
7. Uanset stk. 6 kan medlemsstaten under behørige omstændigheder, og forudsat at der sikres koordinering, udpege en anden relevant myndighed som markedsovervågningsmyndighed med henblik på denne forordning.
Nationale markedsovervågningsmyndigheder, som fører tilsyn med kreditinstitutter, der er reguleret i henhold til direktiv 2013/36/EU, og som deltager i den fælles tilsynsmekanisme, der er oprettet ved forordning (EU) nr. 1024/2013, bør straks indberette alle de oplysninger identificeret i forbindelse med deres markedsovervågningsaktiviteter, som kan være af potentiel interesse for Den Europæiske Centralbanks tilsynsopgaver som fastsat i nævnte forordning, til Den Europæiske Centralbank.
8. For så vidt angår de højrisiko-AI-systemer, der er anført i bilag III, punkt 1, til denne forordning for så vidt systemerne anvendes til retshåndhævelsesformål, grænseforvaltning og retsvæsen og demokrati, og de højrisiko-AI-systemer, der er anført i bilag III, punkt 6, 7 og 8, til denne forordning, udpeger medlemsstaterne med henblik på denne forordning som markedsovervågningsmyndigheder enten de kompetente datatilsynsmyndigheder i henhold til forordning (EU) 2016/679 eller direktiv (EU) 2016/680 eller enhver anden myndighed, der er udpeget på de samme betingelser, der er fastsat i artikel 41-44 i direktiv (EU) 2016/680. Markedsovervågningsaktiviteter må på ingen måde påvirke de judicielle myndigheders uafhængighed eller på anden måde gribe ind i deres aktiviteter, når de handler i deres egenskab af domstol.
9. I tilfælde, hvor EU-institutioner, -organer, -kontorer eller -agenturer er omfattet af denne forordning, fungerer Den Europæiske Tilsynsførende for Databeskyttelse som deres markedsovervågningsmyndighed, undtagen i forbindelse med EU-Domstolen, som handler i sin egenskab af domstol.
10. Medlemsstaterne skal lette koordinering mellem markedsovervågningsmyndigheder, der er udpeget i henhold til denne forordning, og andre relevante nationale myndigheder eller organer, der fører tilsyn med anvendelsen af den EU-harmoniseringslovgivning, der er opført i bilag I, eller anden EU-ret, der kan være relevant for de i bilag III omhandlede højrisiko-AI-systemer.
11. Markedsovervågningsmyndighederne og Kommissionen kan foreslå fælles aktiviteter, herunder fælles undersøgelser, som skal gennemføres af enten markedsovervågningsmyndigheder eller af markedsovervågningsmyndigheder sammen med Kommissionen, og som har til formål at fremme overholdelse, identificere manglende overholdelse, øge bevidstheden eller yde vejledning for så vidt angår denne forordning med hensyn til specifikke kategorier af højrisiko-AI-systemer, der anses for at udgøre en alvorlig risiko i to eller flere medlemsstater i overensstemmelse med artikel 9 i forordning (EU) 2019/1020. AI-kontoret sørger for koordinerende støtte til de fælles undersøgelser.
12. Uden at det berører de beføjelser, der er fastsat i forordning (EU) 2019/1020, og hvis det er relevant og begrænset til, hvad der er nødvendigt for, at markedsovervågningsmyndighederne kan udføre deres opgaver, gives de af udbydere fuld adgang til den dokumentation samt til de trænings-, validerings- og afprøvningsdatasæt, der anvendes til udvikling af højrisiko-AI-systemer, herunder, hvis det er relevant og med forbehold af sikkerhedsforanstaltninger, via programmeringsgrænseflader for applikationer (API'er) eller andre relevante tekniske midler og værktøjer, der muliggør fjernadgang.
13. Markedsovervågningsmyndighederne gives efter begrundet anmodning adgang til kildekoden for højrisiko-AI-systemet, og kun når begge følgende betingelser er opfyldt:
a) adgang til kildekode er nødvendig for at vurdere, om et højrisiko-AI-system er i overensstemmelse med kravene i kapitel III, afdeling 2, og
b) afprøvnings- eller revisionsprocedurer og -verifikationer på grundlag af data og dokumentation fra udbyderen er udtømt eller har vist sig at være utilstrækkelige.
14. Alle de oplysninger eller al den dokumentation, som markedsovervågningsmyndighederne kommer i besiddelse af, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
I tilfælde, hvor de retshåndhævende myndigheder, indvandringsmyndighederne eller asylmyndighederne er udbydere af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, 6 eller 7, skal den tekniske dokumentation, der er omhandlet i bilag IV, forblive hos disse myndigheder. Disse myndigheder sikrer, at de markedsovervågningsmyndigheder, der er omhandlet i artikel 74, stk. 8 og 9, alt efter hvad der er relevant, efter anmodning omgående kan få adgang til dokumentationen eller få en kopi heraf. Kun det af markedsovervågningsmyndighedens personale, der har et passende sikkerhedsgodkendelsesniveau, må få adgang til dokumentationen eller en kopi heraf.
4. Stk. 1, 2 og 3 berører ikke Kommissionens, medlemsstaternes og deres relevante myndigheders samt de bemyndigede organers rettigheder eller forpligtelser med hensyn til udveksling af oplysninger og udsendelse af advarsler, herunder i forbindelse med grænseoverskridende samarbejde, eller de berørte parters forpligtelse til at afgive oplysninger inden for rammerne af medlemsstaternes strafferet.
5. Kommissionen og medlemsstaterne kan om nødvendigt og i overensstemmelse med relevante bestemmelser i internationale aftaler og handelsaftaler udveksle fortrolige oplysninger med reguleringsmyndigheder i tredjelande, med hvilke de har indgået bilaterale eller multilaterale fortrolighedsordninger, der sikrer en tilstrækkelig grad af fortrolighed.
6. Den i stk. 5 omhandlede underretning skal indeholde alle tilgængelige oplysninger, navnlig de nødvendige oplysninger til identifikation af det AI-system, der ikke overholder kravene, AI-systemets og forsyningskædens oprindelse, arten af den påståede manglende overholdelse og af den pågældende risiko, arten og varigheden af de trufne nationale foranstaltninger samt de synspunkter, som den pågældende operatør har fremsat. Markedsovervågningsmyndighederne oplyser navnlig, om den manglende overholdelse af kravene skyldes et eller flere af følgende:
a) manglende overholdelse af forbuddet mod de i artikel 5 omhandlede former for AI-praksis
b) et højrisiko-AI-systems manglende opfyldelse af kravene i kapitel III, afdeling 2
c) mangler i de harmoniserede standarder eller fælles specifikationer, der er omhandlet i artikel 40 og 41, og som danner grundlag for overensstemmelsesformodningen
d) manglende overholdelse af artikel 50.
7. Andre markedsovervågningsmyndigheder end markedsovervågningsmyndigheden i den medlemsstat, der har indledt proceduren, underretter uden unødigt ophold Kommissionen og de øvrige medlemsstater om de trufne foranstaltninger og om yderligere oplysninger, som de måtte råde over, om det pågældende AI-systems manglende overholdelse og om deres indsigelser, hvis de ikke er indforstået med den meddelte nationale foranstaltning.
8. Hvis der ikke inden for tre måneder efter modtagelsen af den i denne artikels stk. 5 omhandlede underretning er blevet gjort indsigelse af enten en markedsovervågningsmyndighed i en medlemsstat eller af Kommissionen mod en foreløbig foranstaltning truffet af en markedsovervågningsmyndighed i en anden medlemsstat, anses denne foranstaltning for at være berettiget. Dette berører ikke den pågældende operatørs procedurerettigheder i overensstemmelse med artikel 18 i forordning (EU) 2019/1020. Den periode på tre måneder, der er omhandlet i nærværende stykke, nedsættes til 30 dage i tilfælde af manglende overholdelse af forbuddet mod de i nærværende forordnings artikel 5 anførte former for AI-praksis.
9. Markedsovervågningsmyndighederne sikrer, at der uden unødigt ophold træffes de fornødne restriktive foranstaltninger med hensyn til det pågældende produkt eller AI-system såsom tilbagetrækning af produktet eller AI-systemet fra deres marked.
g) gennemsigtighedsforpligtelser for udbydere og idriftsættere i henhold til artikel 50.
5. Afgivelse af ukorrekte, ufuldstændige eller vildledende oplysninger til bemyndigede organer eller nationale kompetente myndigheder som svar på en anmodning straffes med administrative bøder på op til 7 500 000 EUR eller, hvis lovovertræderen er en virksomhed, op til 1 % af dens samlede globale årlige omsætning i det foregående regnskabsår, alt efter hvilket beløb der er størst.
6. For SMV'er, herunder iværksættervirksomheder, skal hver bøde, der er omhandlet i denne artikel, være op til den procentsats eller det beløb, der er omhandlet i stk. 3, 4 og 5, alt efter hvilken af dem der er lavest.
7. Når der træffes afgørelse om, hvorvidt der skal pålægges en administrativ bøde, og ved fastsættelsen af den administrative bødes størrelse tages der i hvert enkelt tilfælde hensyn til alle relevante omstændigheder i den specifikke situation, og der tages i relevant omfang hensyn til følgende:
a) overtrædelsens art, grovhed og varighed samt dens konsekvenser under hensyntagen til formålet med AI-systemet samt, hvis det er relevant, antallet af berørte personer og omfanget af den skade, de har lidt
b) hvorvidt andre markedsovervågningsmyndigheder allerede har pålagt den samme operatør administrative bøder for samme overtrædelse
c) hvorvidt andre myndigheder allerede har pålagt den samme operatør administrative bøder for overtrædelser af anden EU-ret eller national ret, når sådanne overtrædelser skyldes den samme aktivitet eller undladelse, der udgør en relevant overtrædelse af denne forordning
d) størrelsen på den operatør, der har begået overtrædelsen, og dennes årlige omsætning og markedsandel
e) om der er andre skærpende eller formildende faktorer ved sagens omstændigheder såsom opnåede økonomiske fordele eller undgåede tab som direkte eller indirekte følge af overtrædelsen
f) graden af samarbejde med de nationale kompetente myndigheder for at afhjælpe overtrædelsen og begrænse de negative konsekvenser, som overtrædelsen måtte have givet anledning til
g) graden af ansvar hos operatøren under hensyntagen til de tekniske og organisatoriske foranstaltninger, som vedkommende har gennemført
h) den måde, hvorpå de nationale kompetente myndigheder fik kendskab til overtrædelsen, navnlig om operatøren har underrettet om overtrædelsen, og i givet fald i hvilket omfang
i) hvorvidt overtrædelsen blev begået forsætligt eller uagtsomt
j) ethvert tiltag fra operatørens side for at afbøde skaden på de pågældende personer.
8. Hver medlemsstat fastsætter regler om, i hvilket omfang administrative bøder kan pålægges offentlige myndigheder og organer, der er etableret i den pågældende medlemsstat.
9. Afhængigt af medlemsstaternes retssystem kan reglerne om administrative bøder anvendes på en sådan måde, at bøderne pålægges af kompetente nationale domstole eller af andre organer, alt efter hvad der er relevant i disse medlemsstater. Anvendelsen af disse regler i disse medlemsstater har tilsvarende virkning.
10. Udøvelse af beføjelser i henhold til denne artikel skal være underlagt fornødne proceduremæssige sikkerhedsforanstaltninger i overensstemmelse med EU-retten og national ret, herunder effektive retsmidler og retfærdig procedure.
11. Medlemsstaterne aflægger årligt rapport til Kommissionen om de administrative bøder, de har udstedt i løbet af det pågældende år, i overensstemmelse med denne artikel, og om eventuelle dermed forbundne tvister eller retssager.
2. Manglende overholdelse af forbuddet mod de i artikel 5 anførte former for AI-praksis straffes med administrative bøder på op til 1 500 000 EUR.
3. AI-systemets manglende overholdelse af ethvert krav eller enhver forpligtelse i henhold til denne forordning, bortset fra kravene i artikel 5, straffes med administrative bøder på op til 750 000 EUR.
4. Inden der træffes afgørelse i henhold til denne artikel, giver Den Europæiske Tilsynsførende for Databeskyttelse den pågældende EU-institution eller det pågældende EU-organ, -kontor eller -agentur, der er genstand for de procedurer, som gennemføres af Den Europæiske Tilsynsførende for Databeskyttelse, mulighed for at blive hørt om genstanden for den mulige overtrædelse. Den Europæiske Tilsynsførende for Databeskyttelse baserer udelukkende sine afgørelser på elementer og forhold, som de berørte parter har haft mulighed for at fremsætte bemærkninger til. Eventuelle klagere inddrages i vid udstrækning i proceduren.
5. De deltagende parters ret til forsvar skal sikres fuldt ud i procedureforløbet. De har ret til aktindsigt i Den Europæiske Tilsynsførende for Databeskyttelses sagsakter med forbehold af fysiske personers eller virksomheders berettigede interesse i at beskytte deres personoplysninger eller forretningshemmeligheder.
6. Midler, der er indsamlet ved pålæg af bøder i henhold til denne artikel, bidrager til Unionens almindelige budget. Bøderne berører ikke den effektive funktion af den EU-institution eller det EU-organ, -kontor eller -agentur, der er blevet pålagt bøden.
7. Den Europæiske Tilsynsførende for Databeskyttelse underretter hvert år Kommissionen om de administrative bøder, den har pålagt i henhold til denne artikel, og om eventuelle tvister eller retssager, den har indledt.
6) I artikel 58 tilføjes følgende stykke:
»3. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.«
5. Senest den 2. august 2028 evaluerer Kommissionen AI-kontorets funktion, og om det har fået tilstrækkelige beføjelser og kompetencer til at udføre sine opgaver, samt om det vil være relevant og nødvendigt for en korrekt gennemførelse og håndhævelse af denne forordning at opgradere AI-Kontoret og dets håndhævelsesbeføjelser og øge dets ressourcer. Kommissionen forelægger en rapport om sin evaluering for Europa-Parlamentet og Rådet.
6. Senest den 2. august 2028 og hvert fjerde år derefter forelægger Kommissionen en rapport om revisionen af fremskridt med udviklingen af standardiseringsdokumentation om en energieffektiv udvikling af AI-modeller til almen brug og vurderer behovet for yderligere foranstaltninger eller tiltag, herunder bindende foranstaltninger eller tiltag. Rapporten forelægges Europa-Parlamentet og Rådet og offentliggøres.
7. Senest den 2. august 2028 og hvert tredje år derefter evaluerer Kommissionen virkningen og effektiviteten af frivillige adfærdskodekser med henblik på at fremme anvendelsen af kravene i kapitel III, afdeling 2, på andre AI-systemer end højrisiko-AI-systemer og eventuelt andre yderligere krav til andre AI-systemer end højrisiko-AI-systemer, herunder vedrørende miljømæssig bæredygtighed.
8. Med henblik på stk. 1-7 indgiver AI-udvalget, medlemsstaterne og de nationale kompetente myndigheder oplysninger til Kommissionen på dennes anmodning og uden unødigt ophold.
9. Når Kommissionen foretager de evalueringer og revisioner, der er omhandlet i stk. 1-7, tager den hensyn til holdninger og resultater fra AI-udvalget, fra Europa-Parlamentet, fra Rådet og fra andre relevante organer eller kilder.
10. Kommissionen forelægger om nødvendigt relevante forslag til ændring af denne forordning, navnlig under hensyntagen til den teknologiske udvikling, AI-systemernes indvirkning på sundhed og sikkerhed og de grundlæggende rettigheder og i lyset af fremskridtene i informationssamfundet.
11. Som grundlag for de evalueringer og revisioner, der er omhandlet i denne artikels stk. 1-7, påtager AI-kontoret sig at udvikle en objektiv og inddragende metode til evaluering af risikoniveauerne baseret på de kriterier, der er anført i de relevante artikler, og medtagelse af nye systemer i:
(a) listen i bilag III, herunder udvidelse af eksisterende områdeoverskrifter eller tilføjelse af nye områdeoverskrifter i nævnte bilag
(b) listen over de forbudte former for praksis, der er omhandlet i artikel 5, og
(c) listen over de AI-systemer, der kræver yderligere gennemsigtighedsforanstaltninger i henhold til artikel 50.
12. Alle ændringer til denne forordning i medfør af stk. 10 eller relevante delegerede retsakter eller gennemførelsesretsakter, som vedrører den sektorspecifikke EU-harmoniseringslovgivning, der er opført i bilag 1, afsnit B, skal tage hensyn til de enkelte sektorers reguleringsmæssige forhold og eksisterende forvaltning, overensstemmelsesvurdering og håndhævelsesmekanismer og de deri fastsatte myndigheder.
13. Senest den 2. august 2031 foretager Kommissionen en evaluering af håndhævelsen af denne forordning og aflægger rapport herom til Europa-Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg under hensyntagen til denne forordnings første anvendelsesår. På grundlag af resultaterne ledsages rapporten, hvor det er relevant, af et forslag om ændring af denne forordning med hensyn til håndhævelsesstrukturen og behovet for, at et EU-agentur løser eventuelle konstaterede mangler.
Europa-Parlamentets og Rådets forordning (EU) 2019/1020 af 20. juni 2019 om markedsovervågning og produktoverensstemmelse og om ændring af direktiv 2004/42/EF og forordning (EF) nr. 765/2008 og (EU) nr. 305/2011 (EUT L 169 af 25.6.2019, s. 1).
Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller ved lov fastsatte bestemmelser om produktansvar (EFT L 210 af 7.8.1985, s. 29).
Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne oplysninger og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse) (EUT L 119 af 4.5.2016, s. 1).
Europa-Parlamentets og Rådets forordning (EU) 2018/1725 af 23. oktober 2018 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger i Unionens institutioner, organer, kontorer og agenturer og om fri udveksling af sådanne oplysninger og om ophævelse af forordning (EF) nr. 45/2001 og afgørelse nr. 1247/2002/EF (EUT L 295 af 21.11.2018, s. 39).
Europa-Parlamentets og Rådets direktiv (EU) 2016/680 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med kompetente myndigheders behandling af personoplysninger med henblik på at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner og om fri udveksling af sådanne oplysninger og om ophævelse af Rådets rammeafgørelse 2008/977/RIA (EUT L 119 af 4.5.2016, s. 89).
Europa-Parlamentets og Rådets direktiv 2002/58/EF af 12. juli 2002 om behandling af personoplysninger og beskyttelse af privatlivets fred i den elektroniske kommunikationssektor (direktiv om databeskyttelse inden for elektronisk kommunikation) (EFT L 201 af 31.7.2002, s. 37).
Europa-Parlamentets og Rådets forordning (EU) 2022/2065 af 19. oktober 2022 om et indre marked for digitale tjenester og om ændring af direktiv 2000/31/EF (forordning om digitale tjenester) (EUT L 277 af 27.10.2022, s. 1).
Europa-Parlamentets og Rådets direktiv (EU) 2019/882 af 17. april 2019 om tilgængelighedskrav for produkter og tjenester (EUT L 151 af 7.6.2019, s. 70).
Europa-Parlamentets og Rådets direktiv 2005/29/EF af 11. maj 2005 om virksomheders urimelige handelspraksis over for forbrugerne på det indre marked og om ændring af Rådets direktiv 84/450/EØF og Europa-Parlamentets og Rådets direktiv 97/7/EF, 98/27/EF og 2002/65/EF og Europa-Parlamentets og Rådets forordning (EF) nr. 2006/2004 (direktivet om urimelig handelspraksis) (EUT L 149 af 11.6.2005, s. 22).
Rådets rammeafgørelse 2002/584/RIA af 13. juni 2002 om den europæiske arrestordre og om procedurerne for overgivelse mellem medlemsstaterne (EFT L 190 af 18.7.2002, s. 1).
Europa-Parlamentets og Rådets direktiv (EU) 2022/2557 af 14. december 2022 om kritiske enheders modstandsdygtighed og om ophævelse af Rådets direktiv 2008/114/EF (EUT L 333 af 27.12.2022, s. 164).
Europa-Parlamentets og Rådets forordning (EU) 2017/745 af 5. april 2017 om medicinsk udstyr, om ændring af direktiv 2001/83/EF, forordning (EF) nr. 178/2002 og forordning (EF) nr. 1223/2009 og om ophævelse af Rådets direktiv 90/385/EØF og 93/42/EØF (EUT L 117 af 5.5.2017, s. 1).
Europa-Parlamentets og Rådets forordning (EU) 2017/746 af 5. april 2017 om medicinsk udstyr til in vitro-diagnostik og om ophævelse af direktiv 98/79/EF og Kommissionens afgørelse 2010/227/EU (EUT L 117 af 5.5.2017, s. 176).
Europa-Parlamentets og Rådets direktiv 2006/42/EF af 17. maj 2006 om maskiner og om ændring af direktiv 95/16/EF (EUT L 157 af 9.6.2006, s. 24).
Europa-Parlamentets og Rådets forordning (EF) nr. 300/2008 af 11. marts 2008 om fælles bestemmelser om sikkerhed (security) inden for civil luftfart og om ophævelse af forordning (EF) nr. 2320/2002 (EUT L 97 af 9.4.2008, s. 72).
Europa-Parlamentets og Rådets forordning (EU) nr. 167/2013 af 5. februar 2013 om godkendelse og markedsovervågning af landbrugs- og skovbrugstraktorer (EUT L 60 af 2.3.2013, s. 1).
Europa-Parlamentets og Rådets forordning (EU) nr. 168/2013 af 15. januar 2013 om godkendelse og markedsovervågning af to- og trehjulede køretøjer samt quadricykler (EUT L 60 af 2.3.2013, s. 52).
Europa-Parlamentets og Rådets direktiv 2014/90/EU af 23. juli 2014 om skibsudstyr og om ophævelse af Rådets direktiv 96/98/EF (EUT L 257 af 28.8.2014, s. 146).
Europa-Parlamentets og Rådets direktiv (EU) 2016/797 af 11. maj 2016 om interoperabilitet i jernbanesystemet i Den Europæiske Union (EUT L 138 af 26.5.2016, s. 44).
Europa-Parlamentets og Rådets forordning (EU) 2018/858 af 30. maj 2018 om godkendelse og markedsovervågning af motorkøretøjer og påhængskøretøjer dertil samt af systemer, komponenter og separate tekniske enheder til sådanne køretøjer, om ændring af forordning (EF) nr. 715/2007 og (EF) nr. 595/2009 og om ophævelse af direktiv 2007/46/EF (EUT L 151 af 14.6.2018, s. 1).
Europa-Parlamentets og Rådets forordning (EU) 2018/1139 af 4. juli 2018 om fælles regler for civil luftfart og oprettelse af Den Europæiske Unions Luftfartssikkerhedsagentur og om ændring af Europa-Parlamentets og Rådets forordning (EF) nr. 2111/2005, (EF) nr. 1008/2008, (EU) nr. 996/2010, (EU) nr. 376/2014 og direktiv 2014/30/EU og 2014/53/EU og om ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 552/2004 og (EF) nr. 216/2008 og Rådets forordning (EØF) nr. 3922/91 (EUT L 212 af 22.8.2018, s. 1).
Europa-Parlamentets og Rådets forordning (EU) 2019/2144 af 27. november 2019 om krav til typegodkendelse af motorkøretøjer og påhængskøretøjer dertil samt systemer, komponenter og separate tekniske enheder til sådanne køretøjer for så vidt angår deres generelle sikkerhed og beskyttelsen af køretøjspassagerer og bløde trafikanter og om ændring af Europa-Parlamentets og Rådets forordning (EU) 2018/858 og ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 78/2009, forordning (EF) nr. 79/2009 og forordning (EF) nr. 661/2009 og Kommissionens forordning (EF) nr. 631/2009, (EU) nr. 406/2010, (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU) nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr. 1009/2010, (EU) nr. 19/2011, (EU) nr. 109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012, (EU) nr. 347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 og (EU) 2015/166 (EUT L 325 af 16.12.2019, s. 1).
Europa-Parlamentets og Rådets forordning (EF) nr. 810/2009 af 13. juli 2009 om en fællesskabskodeks for visa (visumkodeks) (EUT L 243 af 15.9.2009, s. 1).
Europa-Parlamentets og Rådets direktiv 2013/32/EU af 26. juni 2013 om fælles procedurer for tildeling og fratagelse af international beskyttelse (EUT L 180 af 29.6.2013, s. 60).
Europa-Parlamentets og Rådets forordning (EU) 2024/900 af 13. marts 2024 om gennemsigtighed og målretning i forbindelse med politisk reklame (EUT L, 2024/900, 20.3.2024, ELI: http://data.europa.eu/eli/reg/2024/900/oj).
Europa-Parlamentets og Rådets direktiv 2014/31/EU af 26. februar 2014 om harmonisering af medlemsstaternes lovgivning vedrørende tilgængeliggørelse på markedet af ikke-automatiske vægte (EUT L 96 af 29.3.2014, s. 107).
Europa-Parlamentets og Rådets direktiv 2014/32/EU af 26. februar 2014 om harmonisering af medlemsstaternes love om tilgængeliggørelse på markedet af måleinstrumenter (EUT L 96 af 29.3.2014, s. 149).
Europa-Parlamentets og Rådets forordning (EU) 2019/881 af 17. april 2019 om ENISA (Den Europæiske Unions Agentur for Cybersikkerhed), om cybersikkerhedscertificering af informations- og kommunikationsteknologi og om ophævelse af forordning (EU) nr. 526/2013 (forordningen om cybersikkerhed) (EUT L 151 af 7.6.2019, s. 15).
Europa-Parlamentets og Rådets direktiv (EU) 2016/2102 af 26. oktober 2016 om tilgængeligheden af offentlige organers websteder og mobilapplikationer (EUT L 327 af 2.12.2016, s. 1).
Europa-Parlamentets og Rådets direktiv2002/14/EF af 11. marts 2002 om indførelse af en generel ramme for information og høring af arbejdstagerne i Det Europæiske Fællesskab (EFT L 80 af 23.3.2002, s. 29).
Europa-Parlamentets og Rådets direktiv (EU) 2019/790 af 17. april 2019 om ophavsret og beslægtede rettigheder på det digitale indre marked og om ændring af direktiv 96/9/EF og 2001/29/EF (EUT L 130 af 17.5.2019, s. 92).
Europa-Parlamentets og Rådets forordning (EU) nr. 1025/2012 af 25. oktober 2012 om europæisk standardisering, om ændring af Rådets direktiv 89/686/EØF og 93/15/EØF og Europa-Parlamentets og Rådets direktiv 94/9/EF, 94/25/EF, 95/16/EF, 97/23/EF, 98/34/EF, 2004/22/EF, 2007/23/EF, 2009/23/EF og 2009/105/EF og om ophævelse af Rådets beslutning 87/95/EØF og Europa-Parlamentets og Rådets afgørelse nr. 1673/2006/EF (EUT L 316 af 14.11.2012, s. 12).
Europa-Parlamentets og Rådets forordning (EU) 2022/868 af 30. maj 2022 om europæisk datastyring og om ændring af forordning (EU) 2018/1724 (forordning om datastyring) (EUT L 152 af 3.6.2022, s. 1).
Europa-Parlamentets og Rådets forordning (EU) 2023/2854 af 13. december 2023 om harmoniserede regler om fair adgang til og anvendelse af data og om ændring af forordning (EU) 2017/2394 og direktiv (EU) 2020/1828 (dataforordningen) (EUT L, 2023/2854, 22.12.2023, ELI: http://data.europa.eu/eli/reg/2023/2854/oj).
Kommissionens henstilling 2003/361/EF af 6. maj 2003 om definitionen af mikrovirksomheder, små og mellemstore virksomheder (EUT L 124 af 20.5.2003, s. 36).
Kommissionens afgørelse af 24. januar 2024 om oprettelse af Det Europæiske Kontor for Kunstig Intelligens (C/2024/390).
Europa-Parlamentets og Rådets forordning (EU) nr. 575/2013 af 26. juni 2013 om tilsynsmæssige krav til kreditinstitutter og investeringsselskaber og om ændring af forordning (EU) nr. 648/2012 (EUT L 176 af 27.6.2013, s. 1).
Europa-Parlamentets og Rådets direktiv 2008/48/EF af 23. april 2008 om forbrugerkreditaftaler og om ophævelse af Rådets direktiv 87/102/EØF (EUT L 133 af 22.5.2008, s. 66).
Europa-Parlamentets og Rådets direktiv 2009/138/EF af 25. november 2009 om adgang til og udøvelse af forsikrings- og genforsikringsvirksomhed (Solvens II) (EUT L 335 af 17.12.2009, s. 1).
Europa-Parlamentets og Rådets direktiv 2013/36/EU af 26. juni 2013 om adgang til at udøve virksomhed som kreditinstitut og om tilsyn med kreditinstitutter, om ændring af direktiv 2002/87/EF og om ophævelse af direktiv 2006/48/EF og 2006/49/EF (EUT L 176 af 27.6.2013, s. 338).
Europa-Parlamentets og Rådets direktiv 2014/17/ЕU af 4. februar 2014 om forbrugerkreditaftaler i forbindelse med fast ejendom til beboelse og om ændring af direktiv 2008/48/EF og 2013/36/EU og forordning (EU) nr. 1093/2010 (EUT L 60 af 28.2.2014, s. 34).
Europa-Parlamentets og Rådets direktiv (EU) 2016/97 af 20. januar 2016 om forsikringsdistribution (EUT L 26 af 2.2.2016, s. 19).
Rådets forordning (EU) nr. 1024/2013 af 15. oktober 2013 om overdragelse af specifikke opgaver til Den Europæiske Centralbank i forbindelse med politikker vedrørende tilsyn med kreditinstitutter (EUT L 287 af 29.10.2013, s. 63).
Europa-Parlamentets og Rådets forordning (EU) 2023/988 af 10. maj 2023 om produktsikkerhed i almindelighed, om ændring af Europa-Parlamentets og Rådets forordning (EU) nr. 1025/2012 og Europa-Parlamentets og Rådets direktiv (EU) 2020/1828 og om ophævelse af Europa-Parlamentets og Rådets direktiv 2001/95/EF og Rådets direktiv 87/357/EØF (EUT L 135 af 23.5.2023, s. 1).
Europa-Parlamentets og Rådets direktiv (EU) 2019/1937 af 23. oktober 2019 om beskyttelse af personer, der indberetter overtrædelser af EU-retten (EUT L 305 af 26.11.2019, s. 17).
Europa-Parlamentets og Rådets forordning (EU) nr. 182/2011 af 16. februar 2011 om de generelle regler og principper for, hvordan medlemsstaterne skal kontrollere Kommissionens udøvelse af gennemførelsesbeføjelser (EUT L 55 af 28.2.2011, s. 13).
Europa-Parlamentets og Rådets direktiv (EU) 2016/943 af 8. juni 2016 om beskyttelse af fortrolig knowhow og fortrolige forretningsoplysninger (forretningshemmeligheder) mod ulovlig erhvervelse, brug og videregivelse (EUT L 157 af 15.6.2016, s. 1).
Europa-Parlamentets og Rådets direktiv (EU) 2020/1828 af 25. november 2020 om adgang til anlæggelse af gruppesøgsmål til beskyttelse af forbrugernes kollektive interesser og om ophævelse af direktiv 2009/22/EF (EUT L 409 af 4.12.2020, s. 1).
1. Europa-Parlamentets og Rådets direktiv 2006/42/EF af 17. maj 2006 om maskiner og om ændring af direktiv 95/16/EF (EUT L 157 af 9.6.2006, s. 24)
2. Europa-Parlamentets og Rådets direktiv 2009/48/EF af 18. juni 2009 om sikkerhedskrav til legetøj (EUT L 170 af 30.6.2009, s. 1)
3. Europa-Parlamentets og Rådets direktiv 2013/53/EU af 20. november 2013 om fritidsfartøjer og personlige fartøjer og om ophævelse af direktiv 94/25/EF (EUT L 354 af 28.12.2013, s. 90)
4. Europa-Parlamentets og Rådets direktiv 2014/33/EU af. 26. februar 2014 om harmonisering af medlemsstaternes love om elevatorer og sikkerhedskomponenter til elevatorer (EUT L 96 af 29.3.2014, s. 251)
5. Europa-Parlamentets og Rådets direktiv 2014/34/EU af 26. februar 2014 om harmonisering af medlemsstaternes love om materiel og sikringssystemer til anvendelse i en potentielt eksplosiv atmosfære (EUT L 96 af 29.3.2014, s. 309)
6. Europa-Parlamentets og Rådets direktiv 2014/53/EU af 16. april 2014 om harmonisering af medlemsstaternes love om tilgængeliggørelse af radioudstyr på markedet og om ophævelse af direktiv 1999/5/EF (EUT L 153 af 22.5.2014, s. 62)
7. Europa-Parlamentets og Rådets direktiv 2014/68/EU af 15. maj 2014 om harmonisering af medlemsstaternes lovgivning om tilgængeliggørelse på markedet af trykbærende udstyr (EUT L 189 af 27.6.2014, s. 164)
8. Europa-Parlamentets og Rådets forordning (EU) 2016/424 af 9. marts 2016 om tovbaneanlæg og om ophævelse af direktiv 2000/9/EF (EUT L 81 af 31.3.2016, s. 1)
9. Europa-Parlamentets og Rådets forordning (EU) 2016/425 af 9. marts 2016 om personlige værnemidler og om ophævelse af Rådets direktiv 89/686/EØF (EUT L 81 af 31.3.2016, s. 51)
10. Europa-Parlamentets og Rådets forordning (EU) 2016/426 af 9. marts 2016 om apparater, der forbrænder gasformigt brændstof, og om ophævelse af direktiv 2009/142/EF (EUT L 81 af 31.3.2016, s. 99)
11. Europa-Parlamentets og Rådets forordning (EU) 2017/745 af 5. april 2017 om medicinsk udstyr, om ændring af direktiv 2001/83/EF, forordning (EF) nr. 178/2002 og forordning (EF) nr. 1223/2009 og om ophævelse af Rådets direktiv 90/385/EØF og 93/42/EØF (EUT L 117 af 5.5.2017, s. 1)
12. Europa-Parlamentets og Rådets forordning (EU) 2017/746 af 5. april 2017 om medicinsk udstyr til in vitro-diagnostik og om ophævelse af direktiv 98/79/EF og Kommissionens afgørelse 2010/227/EU (EUT L 117 af 5.5.2017, s. 176).
13. Europa-Parlamentets og Rådets forordning (EF) nr. 300/2008 af 11. marts 2008 om fælles bestemmelser om sikkerhed inden for civil luftfart og om ophævelse af forordning (EF) nr. 2320/2002 (EUT L 97 af 9.4.2008, s. 72)
14. Europa-Parlamentets og Rådets forordning (EU) nr. 168/2013 af 15. januar 2013 om godkendelse og markedsovervågning af to- og trehjulede køretøjer samt quadricykler (EUT L 60 af 2.3.2013, s. 52)
15. Europa-Parlamentets og Rådets forordning (EU) nr. 167/2013 af 5. februar 2013 om godkendelse og markedsovervågning af landbrugs- og skovbrugstraktorer (EUT L 60 af 2.3.2013, s. 1)
16. Europa-Parlamentets og Rådets direktiv 2014/90/EU af 23. juli 2014 om skibsudstyr og om ophævelse af Rådets direktiv 96/98/EF (EUT L 257 af 28.8.2014, s. 146)
17. Europa-Parlamentets og Rådets direktiv (EU) 2016/797 af 11. maj 2016 om interoperabilitet i jernbanesystemet i Den Europæiske Union (EUT L 138 af 26.5.2016, s. 44)
18. Europa-Parlamentets og Rådets forordning (EU) 2018/858 af 30. maj 2018 om godkendelse og markedsovervågning af motorkøretøjer og påhængskøretøjer dertil samt af systemer, komponenter og separate tekniske enheder til sådanne køretøjer, om ændring af forordning (EF) nr. 715/2007 og (EF) nr. 595/2009 og om ophævelse af direktiv 2007/46/EF (EUT L 151 af 14.6.2018, s. 1)
19. Europa-Parlamentets og Rådets forordning (EU) 2019/2144 af 27. november 2019 om krav til typegodkendelse af motorkøretøjer og påhængskøretøjer dertil samt systemer, komponenter og separate tekniske enheder til sådanne køretøjer for så vidt angår deres generelle sikkerhed og beskyttelsen af køretøjspassagerer og bløde trafikanter og om ændring af Europa-Parlamentets og Rådets forordning (EU) 2018/858 og ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 78/2009, forordning (EF) nr. 79/2009 og forordning (EF) nr. 661/2009 og Kommissionens forordning (EF) nr. 631/2009, (EU) nr. 406/2010, (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU) nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr. 1009/2010, (EU) nr. 19/2011, (EU) nr. 109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012, (EU) nr. 347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 og (EU) 2015/166 (EUT L 325 af 16.12.2019, s. 1)
20. Europa-Parlamentets og Rådets forordning (EU) 2018/1139 af 4. juli 2018 om fælles regler for civil luftfart og oprettelse af Den Europæiske Unions Luftfartssikkerhedsagentur og om ændring af Europa-Parlamentets og Rådets forordning (EF) nr. 2111/2005, (EF) nr. 1008/2008, (EU) nr. 996/2010, (EU) nr. 376/2014 og direktiv 2014/30/EU og 2014/53/EU og om ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 552/2004 og (EF) nr. 216/2008 og Rådets forordning (EØF) nr. 3922/91 (EUT L 212 af 22.8.2018, s. 1) for så vidt angår konstruktion, fremstilling og omsætning af luftfartøjer, som er omhandlet i nævnte forordnings artikel 2, stk. 1, litra a) og b), hvis det drejer sig om ubemandede luftfartøjer og tilhørende motorer, propeller, dele og udstyr til fjernkontrol af disse luftfartøjer.
Strafbare handlinger omhandlet i artikel 5, stk. 1, første afsnit, litra h), nr. iii):
— terrorisme
— menneskehandel
— seksuel udnyttelse af børn og børnepornografi
— ulovlig handel med narkotika eller psykotrope stoffer
— ulovlig handel med våben, ammunition eller sprængstoffer
— forsætligt manddrab og grov legemsbeskadigelse
— ulovlig handel med menneskeorganer eller -væv
— ulovlig handel med nukleare eller radioaktive materialer
— bortførelse, frihedsberøvelse eller gidseltagning
— forbrydelser, der er omfattet af Den Internationale Straffedomstols kompetence
— skibs- eller flykapring
— voldtægt
— miljøkriminalitet
— organiseret eller væbnet røveri
— sabotage
— deltagelse i en kriminel organisation, der er involveret i en eller flere af ovennævnte strafbare handlinger.
Højrisiko-AI-systemer i henhold til artikel 6, stk. 2, er de AI-systemer, der er opført under et af følgende områder:
1. Biometri, for så vidt som dets anvendelse er tilladt i henhold til relevant EU-ret eller national ret:
a) systemer til biometrisk fjernidentifikation.
Dette omfatter ikke AI-systemer, der er tilsigtet biometrisk verifikation, og hvis eneste formål er at bekræfte, at en bestemt fysisk person er den person, vedkommende hævder at være
b) AI-systemer, der er tilsigtet biometrisk kategorisering i henhold til følsomme eller beskyttede egenskaber eller karakteristika på grundlag af udledning af disse egenskaber eller karakteristika
c) AI-systemer, der er tilsigtet følelsesgenkendelse.
2. Kritisk infrastruktur: AI-systemer, der tilsigtes anvendt som sikkerhedskomponenter i forvaltningen og driften af kritisk digital infrastruktur, vejtrafik eller forsyning af vand, gas, varme og elektricitet.
3. Uddannelse og erhvervsuddannelse:
a) AI-systemer, der tilsigtes anvendt til at bestemme fysiske personers adgang til eller optagelse eller deres fordeling på uddannelsesinstitutioner på alle niveauer
b) AI-systemer, der tilsigtes anvendt til at evaluere læringsresultater, herunder når disse resultater anvendes til at styre fysiske personers læringsproces på uddannelsesinstitutioner på alle niveauer
c) AI-systemer, der tilsigtes anvendt til at bedømme det nødvendige uddannelsesniveau, som den enkelte vil få eller vil kunne få adgang til, i forbindelse med eller inden for uddannelsesinstitutioner på alle niveauer
d) AI-systemer, der tilsigtes anvendt til at overvåge og opdage forbudt adfærd blandt studerende under prøver i forbindelse med eller inden for uddannelsesinstitutioner på alle niveauer.
4. Beskæftigelse, forvaltning af arbejdstagere og adgang til selvstændig virksomhed:
a) AI-systemer, der tilsigtes anvendt til rekruttering eller udvælgelse af fysiske personer, navnlig til at indrykke målrettede jobannoncer, analysere og filtrere jobansøgninger og evaluere kandidater
b) AI-systemer, der tilsigtes anvendt til at træffe beslutninger, der påvirker vilkårene for arbejdsrelaterede forhold, forfremmelse eller afskedigelse i arbejdsrelaterede kontraktforhold, til at fordele opgaver på grundlag af individuel adfærd eller personlighedstræk eller personlige egenskaber eller til at overvåge og evaluere personers præstationer og adfærd i sådanne forhold.
5. Adgang til og benyttelse af væsentlige private tjenester og væsentlige offentlige tjenester og ydelser:
a) AI-systemer, der tilsigtes anvendt af offentlige myndigheder eller på vegne af offentlige myndigheder til at vurdere fysiske personers berettigelse til væsentlige offentlige bistandsydelser og -tjenester, herunder sundhedstjenester, samt til at tildele, nedsætte, tilbagekalde eller kræve tilbagebetaling af sådanne ydelser og tjenester
b) AI-systemer, der tilsigtes anvendt til at evaluere fysiske personers kreditværdighed eller fastslå deres kreditvurdering, med undtagelse af AI-systemer, der anvendes til at afsløre økonomisk svig
c) AI-systemer, der tilsigtes anvendt til at foretage risikovurdering og prisfastsættelse for så vidt angår fysiske personer i forbindelse med livs- og sygeforsikring
d) AI-systemer, der er tilsigtet at evaluere og klassificere nødopkald fra fysiske personer eller til at blive anvendt til at sende beredskabstjenester i nødsituationer eller til at tildele prioriteter i forbindelse hermed, herunder udrykning af politi, brandslukning og lægehjælp samt patientsorteringssystemer for førstehjælp
6. Retshåndhævelse, for så vidt som deres anvendelse er tilladt i henhold til relevant EU-ret eller national ret:
a) AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder eller på deres vegne til at vurdere risikoen for, at en fysisk person bliver offer for strafbare handlinger
b) AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder som polygrafer eller lignende værktøjer
c) AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til at vurdere pålideligheden af bevismateriale i forbindelse med efterforskning eller retsforfølgning af strafbare handlinger
d) AI-systemer, der tilsigtes anvendt af retshåndhævende myndigheder eller på deres vegne eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til at vurdere risikoen for, at en fysisk person begår eller på ny begår lovovertrædelser, der ikke udelukkende er baseret på profilering af fysiske personer som omhandlet i artikel 3, stk. 4, i direktiv (EU) 2016/680, eller til at vurdere fysiske personers eller gruppers personlighedstræk og personlige egenskaber eller tidligere kriminelle adfærd
e) AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til profilering af fysiske personer som omhandlet i artikel 3, stk. 4, i direktiv (EU) 2016/680 i forbindelse med afsløring, efterforskning eller retsforfølgning af strafbare handlinger.
7. Migrationsstyring, asylforvaltning og grænsekontrol, for så vidt som deres anvendelse er tilladt i henhold til relevant EU-ret eller national ret:
a) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer som polygrafer eller lignende værktøjer
b) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til at vurdere en risiko, herunder en sikkerhedsrisiko, en risiko for irregulær migration eller en sundhedsrisiko, som udgøres af en fysisk person, der har til hensigt at rejse ind i eller er indrejst i en medlemsstat
c) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til at bistå kompetente offentlige myndigheder i behandlingen af ansøgninger om asyl, visum eller opholdstilladelser og hertil relaterede klager med henblik på at fastslå, om de fysiske personer, der ansøger, er berettigede, herunder tilhørende vurdering af pålideligheden af bevismateriale
d) AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer i forbindelse med migrationsstyring, asylforvaltning eller grænsekontrol med henblik på at opdage, genkende eller identificere fysiske personer, bortset fra kontrol af rejselegitimation.
8. Retspleje og demokratiske processer:
a) AI-systemer, der tilsigtes anvendt af judicielle myndigheder eller på deres vegne til at bistå en judiciel myndighed med at undersøge og fortolke fakta og retten og anvende retten på konkrete sagsforhold eller til at blive anvendt på en lignende måde i forbindelse med alternativ tvistbilæggelse
b) AI-systemer, der tilsigtes anvendt til at påvirke resultatet af et valg eller en folkeafstemning eller fysiske personers stemmeadfærd i forbindelse med udøvelsen af deres stemme ved valg eller folkeafstemninger. Dette omfatter ikke AI-systemer, hvis output fysiske personer ikke er direkte eksponeret for, såsom værktøjer, der anvendes til at organisere, optimere eller strukturere politiske kampagner ud fra et administrativt eller logistisk synspunkt.
Den tekniske dokumentation, der er omhandlet i artikel 11, stk. 1, skal som minimum indeholde følgende oplysninger, alt efter hvad der er relevant for det pågældende AI-system:
1. En generel beskrivelse af AI-systemet, herunder:
a) det tilsigtede formål, udbyderens navn samt systemets dato og version, der afspejler sammenhængen med tidligere versioner
b) hvis det er relevant, hvordan AI-systemet interagerer med eller kan bruges til at interagere med hardware eller software, herunder med andre AI-systemer, der ikke er en del af selve AI-systemet
c) versionerne af relevant software eller firmware og eventuelle krav vedrørende opdateringer
d) en beskrivelse af alle de former, hvori AI-systemet bringes i omsætning eller ibrugtages, såsom softwarepakke indlejret i hardware, downloads eller API'er
e) en beskrivelse af den hardware, som AI-systemet tilsigtes at køre på
f) hvis AI-systemet er komponent i produkter, fotografier eller illustrationer, der viser disse produkters eksterne karakteristika, mærkning og interne layout
g) en grundlæggende beskrivelse af den brugergrænseflade, der stilles til rådighed for idriftsætteren
h) brugsanvisning til idriftsætteren og en grundlæggende beskrivelse af den brugergrænseflade, der stilles til rådighed for idriftsætteren, hvis det er relevant.
2. En detaljeret beskrivelse af elementerne i AI-systemet og af processen for dets udvikling, herunder:
a) de metoder og trin, der er brugt i udviklingen af AI-systemet, herunder, hvis det er relevant, anvendelse af forhåndstrænede systemer eller værktøjer leveret af tredjeparter, og hvordan disse er blevet anvendt, integreret eller ændret af udbyderen
b) systemets konstruktionsspecifikationer, dvs. AI-systemets og algoritmernes generelle logik, navnlig de vigtigste valg med hensyn til udformning, herunder begrundelser og antagelser, herunder med hensyn til personer eller grupper af personer, som systemet tilsigtes anvendt på, de overordnede klassificeringsvalg, hvad systemet er udformet til at optimere for og relevansen af de forskellige parametre, en beskrivelse af systemets forventede output og outputkvalitet samt beslutninger om eventuelle trade-offs i de tekniske løsninger, der er valgt for at overholde kravene i kapitel III, afdeling 2
c) en beskrivelse af systemarkitekturen, der forklarer, hvordan softwarekomponenterne bygger på eller føder ind i hinanden og integreres i den samlede anvendelse; de beregningskraftsressourcer, der anvendes til at udvikle, træne, afprøve og validere AI-systemet
d) hvis det er relevant, datakravene i form af datablade, der beskriver de anvendte træningsmetoder og -teknikker og de anvendte træningsdatasæt, herunder en generel beskrivelse af disse datasæt, oplysninger om deres oprindelse, omfang og vigtigste karakteristika, hvordan dataene er indhentet og udvalgt, mærkningsprocedurer (f.eks. for læring med tilsyn) og datarensningsmetoder (f.eks. påvisning af outliere)
e) vurdering af de foranstaltninger til menneskeligt tilsyn, der er nødvendige i overensstemmelse med artikel 14, herunder en vurdering af de tekniske foranstaltninger, der er nødvendige for at lette idriftsætternes fortolkning af AI-systemets output, i overensstemmelse med artikel 13, stk. 3, litra d)
f) hvis det er relevant, en detaljeret beskrivelse af på forhånd fastlagte ændringer af AI-systemet og dets ydeevne sammen med alle relevante oplysninger vedrørende de tekniske løsninger, der er valgt for at sikre, at AI-systemet til stadighed overholder de relevante krav i kapitel III, afdeling 2
g) de anvendte validerings- og afprøvningsprocedurer, herunder oplysninger om de anvendte validerings- og afprøvningsdata og deres vigtigste karakteristika, parametre til måling af nøjagtighed, robusthed og overholdelse af andre relevante krav i kapitel III, afdeling 2, samt potentielt forskelsbehandlende virkninger samt afprøvningslogfiler og alle afprøvningsrapporter, der er dateret og underskrevet af de ansvarlige personer, herunder med hensyn til forudbestemte ændringer som omhandlet i litra f)
h) indførte cybersikkerhedsforanstaltninger.
3. Detaljerede oplysninger om overvågningen af AI-systemet, dets funktion og kontrollen hermed, navnlig med hensyn til dets kapacitet og begrænsninger i ydeevne, herunder nøjagtighedsgraden for specifikke personer eller grupper af personer, som systemet tilsigtes anvendt på, og det samlede forventede nøjagtighedsniveau i forhold til det tilsigtede formål, de forventede utilsigtede resultater og kilder til risici for sundhed og sikkerhed, grundlæggende rettigheder og forskelsbehandling i lyset af AI-systemets tilsigtede formål, foranstaltningerne til menneskeligt tilsyn i overensstemmelse med artikel 14, herunder de tekniske foranstaltninger, der er indført for at lette idriftsætternes fortolkning af AI-systemets output, samt specifikationer for inputdata, alt efter hvad der er relevant.
4. En beskrivelse af ydeevneparametrenes egnethed til det specifikke AI-system.
5. En detaljeret beskrivelse af risikostyringssystemet i overensstemmelse med artikel 9.
6. En beskrivelse af relevante ændringer, som udbyderen foretager af systemet i løbet af dets livscyklus.
7. En liste over de helt eller delvis anvendte harmoniserede standarder, hvis referencer er offentliggjort i Den Europæiske Unions Tidende, samt, hvis disse harmoniserede standarder ikke er blevet anvendt, en detaljeret beskrivelse af de løsninger, der er anvendt for at opfylde kravene i kapitel III, afdeling 2, herunder en liste over andre relevante tekniske specifikationer, som er anvendt.
8. En kopi af den i artikel 47 omhandlede EU-overensstemmelseserklæring.
9. En detaljeret beskrivelse af det system, der er indført til evaluering af AI-systemets ydeevne, efter at systemet er bragt i omsætning, i overensstemmelse med artikel 72, herunder planen for overvågning efter omsætningen, der er omhandlet i artikel 72, stk. 3.
EU-overensstemmelseserklæringen, der er omhandlet i artikel 47, skal indeholde følgende oplysninger:
1. AI-systemets navn, type og enhver yderligere entydig reference, der gør det muligt at identificere og spore AI-systemet
2. udbyderens navn og adresse eller, hvis det er relevant, den bemyndigede repræsentants navn og adresse
3. en erklæring om, at den i artikel 47 omhandlede EU-overensstemmelseserklæring udstedes på udbyderens ansvar
4. en erklæring om, at AI-systemet er i overensstemmelse med denne forordning og eventuelt med al anden relevant EU-ret, der fastsætter bestemmelser om udstedelse af den i artikel 47 omhandlede EU-overensstemmelseserklæring
5. hvis et AI-system indbefatter behandling af personoplysninger, en erklæring om, at AI-systemet overholder forordning (EU) 2016/679 og (EU) 2018/1725 samt direktiv (EU) 2016/680
6. referencer til de relevante anvendte harmoniserede standarder eller referencer til anden fælles specifikation, som der erklæres overensstemmelse med
7. hvis det er relevant, navnet og identifikationsnummeret på det bemyndigede organ, en beskrivelse af den gennemførte overensstemmelsesvurderingsprocedure og identifikation af den udstedte attest
8. udstedelsessted og -dato for erklæringen, navn og stilling på den person, der har underskrevet den, samt en angivelse af, for hvem eller på hvis vegne vedkommende har underskrevet, og underskrift.
1.
Proceduren for overensstemmelsesvurdering baseret på intern kontrol er overensstemmelsesvurderingsproceduren baseret på punkt 2, 3 og 4.
2.
Udbyderen verificerer, at det etablerede kvalitetsstyringssystem overholder kravene i artikel 17.
3.
Udbyderen undersøger oplysningerne i den tekniske dokumentation med henblik på at vurdere, hvorvidt AI-systemet overholder de relevante væsentlige krav i kapitel III, afdeling 2.
4.
Udbyderen verificerer også, at udformnings- og udviklingsprocessen for AI-systemet og dets overvågning efter omsætningen som omhandlet i artikel 72 er i overensstemmelse med den tekniske dokumentation.
Overensstemmelse baseret på en vurdering af kvalitetsstyringssystemet og en vurdering af den tekniske dokumentation er overensstemmelsesvurderingsproceduren baseret på punkt 2-5.
Det godkendte kvalitetsstyringssystem for udformning, udvikling og afprøvning af AI-systemer i henhold til artikel 17 undersøges i overensstemmelse med punkt 3 og er underlagt den i punkt 5 omhandlede overvågning. AI-systemets tekniske dokumentation undersøges i overensstemmelse med punkt 4.
3.1. Udbyderens ansøgning skal omfatte:
a) udbyderens navn og adresse samt navn og adresse på udbyderens bemyndigede repræsentant, hvis ansøgningen indgives af denne
b) listen over AI-systemer, der er omfattet af det samme kvalitetsstyringssystem
c) den tekniske dokumentation for hvert AI-system, der er omfattet af det samme kvalitetsstyringssystem
d) dokumentationen vedrørende kvalitetsstyringssystemet, som skal omfatte alle de aspekter, der er anført i artikel 17
e) en beskrivelse af de procedurer, der er indført for at sikre, at kvalitetsstyringssystemet fortsat er fyldestgørende og effektivt
f) en skriftlig erklæring om, at samme ansøgning ikke er blevet indgivet til et andet bemyndiget organ.
3.2. Det bemyndigede organ vurderer kvalitetsstyringssystemet for at afgøre, om det opfylder kravene omhandlet i artikel 17.
Afgørelsen meddeles udbyderen eller dennes bemyndigede repræsentant.
Meddelelsen skal indeholde konklusionerne af vurderingen af kvalitetsstyringssystemet og en begrundelse for afgørelsen.
3.3. Det godkendte kvalitetsstyringssystem skal fortsat gennemføres og vedligeholdes af udbyderen, således at det forbliver hensigtsmæssigt og effektivt.
3.4. Enhver tilsigtet ændring af det godkendte kvalitetsstyringssystem eller listen over AI-systemer, der er omfattet af dette, skal af udbyderen meddeles det bemyndigede organ.
Det bemyndigede organ vurderer de foreslåede ændringer og afgør, om det ændrede kvalitetsstyringssystem stadig opfylder de i punkt 3.2 omhandlede krav, eller om en fornyet vurdering er nødvendig.
Det bemyndigede organ meddeler udbyderen sin afgørelse. Meddelelsen skal indeholde konklusionerne af undersøgelsen af de foreslåede ændringer og en begrundelse for afgørelsen.
4.1. Ud over den i punkt 3 omhandlede ansøgning, skal udbyderen til det bemyndigede organ indsende en ansøgning om vurdering af den tekniske dokumentation vedrørende det AI-system, som denne agter at bringe i omsætning eller ibrugtage, og som er omfattet af det kvalitetsstyringssystem, der er omhandlet i punkt 3.
4.2. Ansøgningen skal indeholde:
a) udbyderens navn og adresse
b) en skriftlig erklæring om, at samme ansøgning ikke er blevet indgivet til et andet bemyndiget organ
c) den i bilag IV omhandlede tekniske dokumentation.
4.3. Den tekniske dokumentation vurderes af det bemyndigede organ. Hvis det er relevant og begrænset til, hvad der er nødvendigt for, at det bemyndigede organ kan udføre sine opgaver, gives det fuld adgang til de anvendte trænings-, validerings- og afprøvningsdatasæt, herunder, hvis det er relevant, og med forbehold af sikkerhedsforanstaltninger, via API'er eller andre relevante tekniske midler og værktøjer, der muliggør fjernadgang.
4.4. I forbindelse med vurderingen af den tekniske dokumentation kan det bemyndigede organ kræve, at udbyderen fremlægger yderligere dokumentation eller udfører yderligere afprøvninger for at muliggøre en korrekt vurdering af AI-systemets overensstemmelse med kravene i kapitel III, afdeling 2. Hvis det bemyndigede organ ikke er tilfreds med de afprøvninger, som udbyderen har foretaget, skal det bemyndigede organ selv foretage de nødvendige afprøvninger direkte, alt efter hvad der er relevant.
4.5. Hvis det er nødvendigt for at vurdere, om højrisiko-AI-systemet er i overensstemmelse med kravene i kapitel III, afdeling 2, skal det bemyndigede organ, efter at alle andre rimelige metoder til at verificere overensstemmelsen er udtømt eller har vist sig utilstrækkelige, og efter begrundet anmodning gives adgang til AI-systemets træningsmodeller og trænede modeller, herunder dets relevante parametre. En sådan adgang er omfattet af gældende EU-ret om beskyttelse af intellektuel ejendom og forretningshemmeligheder.
4.6. Det bemyndigede organs afgørelse meddeles udbyderen eller dennes bemyndigede repræsentant. Meddelelsen skal indeholde konklusionerne af vurderingen af den tekniske dokumentation og en begrundelse for afgørelsen.
Hvis AI-systemet er i overensstemmelse med kravene i kapitel III, afdeling 2, udsteder det bemyndigede organ en EU-vurderingsattest for teknisk dokumentation. Attesten skal indeholde udbyderens navn og adresse, undersøgelseskonklusionerne, eventuelle betingelser for dets gyldighed og de nødvendige data til identifikation af AI-systemet.
Attesten og bilagene hertil skal indeholde alle relevante oplysninger, der gør det muligt at vurdere AI-systemets overensstemmelse med kravene, herunder, hvis det er relevant, kontrol under brug.
Hvis AI-systemet ikke er i overensstemmelse med kravene i kapitel III, afdeling 2, afviser det bemyndigede organ at udstede en EU-vurderingsattest for teknisk dokumentation og oplyser ansøgeren herom og giver en detaljeret begrundelse for afslaget.
Hvis AI-systemet ikke opfylder kravet vedrørende de data, der anvendes til at træne det, skal AI-systemet gentrænes, inden der ansøges om en ny overensstemmelsesvurdering. I dette tilfælde skal det bemyndigede organs begrundede afgørelse om afslag på udstedelse af en EU-vurderingsattest for teknisk dokumentation indeholde specifikke betragtninger om kvaliteten af de data, der er anvendt til at træne AI-systemet, navnlig om årsagerne til manglende overholdelse.
4.7. Enhver ændring af AI-systemet, der kan påvirke AI-systemets overholdelse af kravene eller systemets tilsigtede formål, skal vurderes af det bemyndigede organ, der har udstedt EU-vurderingsattesten for teknisk dokumentation. Udbyderen skal underrette det bemyndigede organ om sin hensigt om at indføre nogen af ovennævnte ændringer, eller hvis denne på anden måde bliver opmærksom på forekomsten af sådanne ændringer. Det bemyndigede organ vurderer de tilsigtede ændringer og afgør, om disse ændringer kræver en ny overensstemmelsesvurdering i overensstemmelse med artikel 43, stk. 4, eller om de kan behandles ved hjælp af et tillæg til EU-vurderingsattesten for teknisk dokumentation. I sidstnævnte tilfælde vurderer det bemyndigede organ ændringerne, meddeler udbyderen sin afgørelse og udsteder, såfremt ændringerne godkendes, et tillæg til EU-vurderingsattesten for teknisk dokumentation til udbyderen.
5.1. Formålet med den overvågning, der udføres af det bemyndigede organ, der er omhandlet i punkt 3, er at sikre, at udbyderen behørigt overholder vilkårene og betingelserne i det godkendte kvalitetsstyringssystem.
5.2. Med henblik på vurdering skal udbyderen give det bemyndigede organ adgang til de lokaler, hvor udformningen, udviklingen eller afprøvningen af AI-systemerne finder sted. Udbyderen skal yderligere give det bemyndigede organ alle nødvendige oplysninger.
5.3. Det bemyndigede organ aflægger jævnligt kontrolbesøg for at sikre, at udbyderen vedligeholder og anvender kvalitetsstyringssystemet, og det udsteder en revisionsrapport til udbyderen. I forbindelse med disse kontrolbesøg kan det bemyndigede organ foretage yderligere afprøvninger af de AI-systemer, for hvilke der er udstedt en EU-vurderingsattest for teknisk dokumentation.
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til højrisiko-AI-systemer, der skal registreres i overensstemmelse med artikel 49, stk. 1:
1. udbyderens navn, adresse og kontaktoplysninger
2. hvis oplysninger forelægges af en anden person på vegne af udbyderen, denne persons navn, adresse og kontaktoplysninger
3. den bemyndigede repræsentants navn, adresse og kontaktoplysninger, hvis det er relevant
4. AI-systemets handelsnavn og enhver yderligere entydig reference, der gør det muligt at identificere og spore AI-systemet
5. en beskrivelse af det tilsigtede formål med AI-systemet og af de komponenter og funktioner, der understøttes af dette AI-system
6. en grundlæggende og kortfattet beskrivelse af de oplysninger, der anvendes af systemet (data, input), og dets driftslogik
7. AI-systemets status (i omsætning eller i drift, ikke længere i omsætning/i drift, tilbagekaldt)
8. type, nummer og udløbsdato for den attest, der er udstedt af det bemyndigede organ, samt navn eller identifikationsnummer på det pågældende bemyndigede organ, hvis det er relevant
9. en scannet kopi af den i punkt 8 omhandlede attest, hvis det er relevant
10. enhver medlemsstat, hvor AI-systemet har været bragt i omsætning, ibrugtaget eller gjort tilgængeligt i Unionen
11. en kopi af den i artikel 47 omhandlede EU-overensstemmelseserklæring
12. brugsanvisning i elektronisk form, dog gives disse oplysninger ikke for højrisiko-AI-systemer inden for retshåndhævelse og migrationsstyring, asylforvaltning og grænsekontrol, der er omhandlet i bilag III, punkt 1, 6 og 7
13. en URL for yderligere oplysninger (valgfrit).
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til højrisiko-AI-systemer, der registreres i overensstemmelse med artikel 49, stk. 2:
1. udbyderens navn, adresse og kontaktoplysninger
2. hvis oplysninger forelægges af en anden person på vegne af udbyderen, denne persons navn, adresse og kontaktoplysninger
3. den bemyndigede repræsentants navn, adresse og kontaktoplysninger, hvis det er relevant
4. AI-systemets handelsnavn og enhver yderligere entydig reference, der gør det muligt at identificere og spore AI-systemet
5. en beskrivelse af det tilsigtede formål med AI-systemet
6. den eller de betingelser i medfør af artikel 6, stk. 3, på grundlag af hvilke(n) AI-systemet ikke betragtes som højrisiko
7. en kort sammenfatning af grundene at, AI-systemet ikke betragtes som højrisiko i forbindelse med anvendelse af proceduren i artikel 6, stk. 3
8. AI-systemets status (i omsætning eller i drift, ikke længere i omsætning/i drift, tilbagekaldt)
9. enhver medlemsstat, hvor AI-systemet har været bragt i omsætning, ibrugtaget eller gjort tilgængeligt i Unionen.
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til højrisiko-AI-systemer, der registreres i overensstemmelse med artikel 49, stk. 3:
1. idriftsætterens navn, adresse og kontaktoplysninger
2. navn, adresse og kontaktoplysninger på enhver person, der indsender oplysninger på vegne af idriftsætteren
3. URL'en for indlæsningen af AI-systemet i EU-databasen for udbyderen af AI-systemet
4. et sammendrag af resultaterne af den konsekvensanalyse vedrørende grundlæggende rettigheder, der er foretaget i overensstemmelse med artikel 27
5. et sammendrag af konsekvensanalysen vedrørende databeskyttelse foretaget i overensstemmelse med artikel 35 i forordning (EU) 2016/679 eller artikel 27 i direktiv (EU) 2016/680 som specificeret i nærværende forordnings artikel 26, stk. 8, hvis det er relevant.
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til afprøvning under faktiske forhold, der registreres i overensstemmelse med artikel 60:
1. et EU-dækkende unikt individuelt identifikationsnummer for afprøvningen under faktiske forhold
2. navn og kontaktoplysninger på udbyderen eller den potentielle udbyder og på de idriftsættere, der er involveret i afprøvningen under faktiske forhold
3. en kort beskrivelse af AI-systemet, dets tilsigtede formål og andre oplysninger, der er nødvendige for at identificere systemet
4. et sammendrag af de vigtigste karakteristika ved planen for afprøvning under faktiske forhold
5. oplysninger om suspendering eller afslutning af afprøvningen under faktiske forhold.
a) Europa-Parlamentets og Rådets forordning (EU) 2018/1860 af 28. november 2018 om brug af Schengeninformationssystemet i forbindelse med tilbagesendelse af tredjelandsstatsborgere med ulovligt ophold (EUT L 312 af 7.12.2018, s. 1)
b) Europa-Parlamentets og Rådets forordning (EU) 2018/1861 af 28. november 2018 om oprettelse, drift og brug af Schengeninformationssystemet (SIS) på området ind- og udrejsekontrol, om ændring af konventionen om gennemførelse af Schengenaftalen og om ændring og ophævelse af forordning (EF) nr. 1987/2006 (EUT L 312 af 7.12.2018, s. 14)
c) Europa-Parlamentets og Rådets forordning (EU) 2018/1862 af 28. november 2018 om oprettelse, drift og brug af Schengeninformationssystemet (SIS) på området politisamarbejde og strafferetligt samarbejde, om ændring og ophævelse af Rådets afgørelse 2007/533/RIA og om ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 1986/2006 og Kommissionens afgørelse 2010/261/EU (EUT L 312 af 7.12.2018, s. 56).
a) Europa-Parlamentets og Rådets forordning (EU) 2021/1133 af 7. juli 2021 om ændring af forordning (EU) nr. 603/2013, (EU) 2016/794, (EU) 2018/1862, (EU) 2019/816 og (EU) 2019/818 for så vidt angår fastsættelse af betingelserne for adgang til andre EU-informationssystemer med henblik på visuminformationssystemet (EUT L 248 af 13.7.2021, s. 1)
b) Europa-Parlamentets og Rådets forordning (EU) 2021/1134 af 7. juli 2021 om ændring af Europa-Parlamentets og Rådets forordning (EF) nr. 767/2008, (EF) nr. 810/2009, (EU) 2016/399, (EU) 2017/2226, (EU) 2018/1240, (EU) 2018/1860, (EU) 2018/1861, (EU) 2019/817 og (EU) 2019/1896 og om ophævelse af Rådets beslutning 2004/512/EF og Rådets afgørelse 2008/633/RIA, med henblik på reform af visuminformationssystemet (EUT L 248 af 13.7.2021, s. 11).
Europa-Parlamentets og Rådets forordning (EU) 2024/1358 af 14. maj 2024 om oprettelse af »Eurodac« til sammenligning af biometriske oplysninger med henblik på effektiv anvendelse af Europa-Parlamentets og Rådets forordning (EU) 2024/1315 og (EU) 2024/1350 og Rådets direktiv 2001/55/EF og på identificering af tredjelandsstatsborgere og statsløse med ulovligt ophold og om medlemsstaternes retshåndhævende myndigheders og Europols adgang til at indgive anmodning om sammenligning med Eurodacoplysninger med henblik på retshåndhævelse, om ændring af Europa-Parlamentets og Rådets forordning (EU) 2018/1240 og (EU) 2019/818 og om ophævelse af Europa-Parlamentets og Rådets forordning (EU) nr. 603/2013 (EUT L, 2024/1358, 22.5.2024, ELI: http://data.europa.eu/eli/reg/2024/1358/oj).
Europa-Parlamentets og Rådets forordning (EU) 2017/2226 af 30. november 2017 om oprettelse af et ind- og udrejsesystem til registrering af ind- og udrejseoplysninger og oplysninger om nægtelse af indrejse vedrørende tredjelandsstatsborgere, der passerer medlemsstaternes ydre grænser, om fastlæggelse af betingelserne for adgang til ind- og udrejsesystemet til retshåndhævelsesformål og om ændring af konventionen om gennemførelse af Schengenaftalen og forordning (EF) nr. 767/2008 og (EU) nr. 1077/2011 (EUT L 327 af 9.12.2017, s. 20).
a) Europa-Parlamentets og Rådets forordning (EU) 2018/1240 af 12. september 2018 om oprettelse af et europæisk system vedrørende rejseinformation og rejsetilladelse (ETIAS) og om ændring af forordning (EU) nr. 1077/2011, (EU) nr. 515/2014, (EU) 2016/399, (EU) 2016/1624 og (EU) 2017/2226 (EUT L 236 af 19.9.2018, s. 1)
b) Europa-Parlamentets og Rådets forordning (EU) 2018/1241 af 12. september 2018 om ændring af forordning (EU) 2016/794 med henblik på oprettelse af et europæisk system vedrørende rejseinformation og rejsetilladelse (ETIAS) (EUT L 236 af 19.9.2018, s. 72).
Europa-Parlamentets og Rådets forordning (EU) 2019/816 af 17. april 2019 om oprettelse af et centralt system til bestemmelse af, hvilke medlemsstater der ligger inde med oplysninger om straffedomme afsagt over tredjelandsstatsborgere og statsløse personer (ECRIS-TCN) for at supplere det europæiske informationssystem vedrørende strafferegistre, og om ændring af forordning (EU) 2018/1726 (EUT L 135 af 22.5.2019, s. 1).
a) Europa-Parlamentets og Rådets forordning (EU) 2019/817 af 20. maj 2019 om fastsættelse af en ramme for interoperabilitet mellem EU-informationssystemer vedrørende grænser og visum og om ændring af Europa-Parlamentets og Rådets forordning (EF) nr. 767/2008, (EU) 2016/399, (EU) 2017/2226, (EU) 2018/1240, (EU) 2018/1726 og (EU) 2018/1861, Rådets beslutning 2004/512/EF og Rådets afgørelse 2008/633/RIA (EUT L 135 af 22.5.2019, s. 27)
b) Europa-Parlamentets og Rådets forordning (EU) 2019/818 af 20. maj 2019 om fastsættelse af en ramme for interoperabilitet mellem EU-informationssystemer vedrørende politisamarbejde og retligt samarbejde, asyl og migration og om ændring af forordning (EU) 2018/1726, (EU) 2018/1862 og (EU) 2019/816 (EUT L 135 af 22.5.2019, s. 85).
Den tekniske dokumentation omhandlet i artikel 53, stk. 1, litra a), skal som minimum indeholde følgende oplysninger, alt efter hvad der er relevant for modellens størrelse og risikoprofil:
1. En generel beskrivelse af AI-modellen til almen brug, herunder:
a) de opgaver, som modellen tilsigtes at udføre, og typen og arten af AI-systemer, som den kan integreres i
b) gældende acceptable anvendelsespolitikker
c) frigivelsesdato og distributionsmetoder
d) parametrenes arkitektur og antal
e) modalitet (f.eks. tekst, billede) og format af input og output
f) licensen.
2. En detaljeret beskrivelse af elementerne i den model, der er omhandlet i punkt 1, og relevante oplysninger om udviklingsprocessen, herunder følgende elementer:
a) de tekniske midler (f.eks. brugsanvisning, infrastruktur, værktøjer), der er nødvendige for, at AI-modellen til almen brug kan integreres i AI-systemer
b) modellens konstruktionsspecifikationer og træningsprocessen, herunder træningsmetoder og -teknikker, de vigtigste valg med hensyn til udformning, herunder begrundelser og antagelser, hvad modellen er udformet til at optimere for og relevansen af de forskellige parametre, alt efter hvad der er relevant
c) oplysninger om de data, der anvendes til træning, afprøvning og validering, hvis det er relevant, herunder dataenes type og oprindelse og kurateringsmetoder (f.eks. rensning, filtrering osv.), antallet af datapunkter, deres omfang og vigtigste karakteristika, hvordan dataene er indhentet og udvalgt, samt alle andre foranstaltninger til at opdage uegnede datakilder og metoder til at opdage identificerbare bias, hvor det er relevant
d) de beregningskraftsressourcer, der anvendes til at træne modellen (f.eks. antal flydende kommatalsberegninger), træningstid og andre relevante detaljer vedrørende træningen
e) modellens kendte eller anslåede energiforbrug.
For så vidt angår litra e) kan energiforbruget, hvis modellens energiforbrug er ukendt, baseres på oplysninger om anvendte beregningskraftsressourcer.
1. En detaljeret beskrivelse af evalueringsstrategierne, herunder evalueringsresultater, på grundlag af tilgængelige offentlige evalueringsprotokoller og -værktøjer eller på anden måde af andre evalueringsmetoder. Evalueringsstrategierne skal omfatte evalueringskriterier, parametre og metoder til identifikation af begrænsninger.
2. Hvis det er relevant, en detaljeret beskrivelse af de foranstaltninger, der er truffet med henblik på at gennemføre intern og/eller ekstern kontradiktorisk afprøvning (f.eks. red teaming), modeltilpasninger, herunder tilpasning og finjustering.
3. Hvis det er relevant, en detaljeret beskrivelse af systemarkitekturen, der forklarer, hvordan softwarekomponenterne bygger på eller føder ind i hinanden og integreres i den samlede anvendelse.
Oplysningerne omhandlet i artikel 53, stk. 1, litra b), skal som minimum omfatte følgende:
1. En generel beskrivelse af AI-modellen til almen brug, herunder:
a) de opgaver, som modellen tilsigtes at udføre, og typen og arten af AI-systemer, som den kan integreres i
b) gældende acceptable anvendelsespolitikker
c) frigivelsesdato og distributionsmetoder
d) hvis det er relevant, hvordan modellen interagerer eller kan bruges til at interagere med hardware eller software, der ikke er en del af selve modellen
e) versioner af relevant software vedrørende anvendelsen af AI-modellen til almen brug, hvis det er relevant
f) parametrenes arkitektur og antal
g) modalitet (f.eks. tekst, billede) og format af input og output
h) licensen til modellen.
2. En beskrivelse af elementerne i modellen og af processen for dens udvikling, herunder:
a) de tekniske midler (f.eks. brugsanvisning, infrastruktur, værktøjer), der er nødvendige for, at AI-modellen til almen brug kan integreres i AI-systemer
b) modalitet (f.eks. tekst, billede osv.) og format af input og output og deres maksimale størrelse (f.eks. kontekstvinduesstørrelse osv.)
c) oplysninger om de data, der anvendes til træning, afprøvning og validering, hvis det er relevant, herunder dataenes type og oprindelse og kurateringsmetoder.
Med henblik på at fastslå, at en AI-model til almen brug har kapaciteter eller virkninger, der svarer til dem, der er fastsat i artikel 51, stk. 1, litra a), tager Kommissionen hensyn til følgende kriterier:
a) antal parametre i modellen
b) datasættets kvalitet eller størrelse, f.eks. målt ved hjælp af tokens
c) den mængde beregningskraft, der anvendes til træning af modellen, målt i flydende kommatalsberegninger eller angivet ved en kombination af andre variabler såsom anslåede træningsomkostninger, anslået tid til træningen eller anslået energiforbrug til træningen
d) modellens input- og outputmetoder, f.eks. tekst til tekst (store sprogmodeller), tekst til billede, multimodalitet og de nyeste tærskler til bestemmelse af kapaciteter med stor virkning for hver modalitet, samt den specifikke type input og output (f.eks. biologiske sekvenser)
e) benchmarks og evalueringer af modellens kapaciteter, herunder hensyntagen til antal opgaver uden yderligere træning, tilpasningsevne til at lære nye, særskilte opgaver, dens grad af autonomi og skalerbarhed og de værktøjer, den har adgang til
f) om den har stor indvirkning på det indre marked på grund af dens omfang, hvilket formodes at være tilfældet, når den er blevet gjort tilgængelig for mindst 10 000 registrerede erhvervsbrugere etableret i Unionen
g) antal registrerede slutbrugere.
ISSN 1977-0634 (electronic edition)