Hvad er risikokategorierne?
AI-forordningen inddeler kunstig intelligens i tre risikoklasser: "uacceptabel", "høj" og "lav/minimal".
Det er forbudt at markedsføre, tage i brug eller bruge AI-systemer, der udgør en uacceptabel risiko. Disse omfatter AI-systemer, der er designet til subliminalt at påvirke menneskelig adfærd negativt, og dem, der udnytter sårbare individers svagheder.
Derudover er offentlige myndigheders brug af AI-systemer til at vurdere eller klassificere fysiske personers troværdighed ("social scoring") forbudt. AI-systemer må i princippet ikke bruges til biometrisk fjernidentifikation i realtid af fysiske personer i offentligt tilgængelige rum til retshåndhævelsesformål.
AI-systemer, der udgør en høj risiko for fysiske personers sundhed og sikkerhed eller grundlæggende rettigheder, kaldes "højrisiko-AI-systemer". Disse grundlæggende rettigheder omfatter menneskelig værdighed, respekt for privat- og familieliv, beskyttelse af personoplysninger, ytrings- og informationsfrihed samt forsamlings- og foreningsfrihed.
Medmindre AI-systemer anses for at være uacceptable og klassificeres som højrisiko-AI-systemer, falder de ind under kategorien lav/minimal risiko. Disse systemer er underlagt mindre strenge krav. Udbydere af sådanne systemer bør dog stadig udarbejde adfærdskodekser og opfordres til frivilligt at anvende reglerne for AI-systemer med høj risiko. Derudover kræver EU's AI Act, at selv AI-systemer med lav risiko skal være sikre, hvis de markedsføres eller tages i brug.
I betragtning af den brede definition af AI i AI-forordningen forventes det, at de fleste AI-systemer skal være i overensstemmelse med loven, når den træder i kraft.