EU-kommissionen (EC) föreslår nu en första rättslig ram för AI och en ny samordnad plan med medlemsländerna som ska garantera säkerheten och de grundläggande rättigheterna för människor och företag. Till exempel anses AI-system för biometrisk fjärridentifiering utgöra en särskilt hög risk och omfattas därför av strikta krav. Därtill kommer maskindirektivet att ersättas med en ny maskinförordning med uppdaterade regler.
Medan AI-förordningen kommer att ta itu med säkerhetsriskerna för AI-system, kommer den nya maskinförordningen att säkerställa en säker integrering av AI-system i maskiner.
Den nya AI-förordningen kommer att säkerställa att människorna i Europa kan lita på det som AI kan erbjuda. Det kommer att finnas proportionerliga och flexibla regler för de särskilda risker som är förbundna med AI-systemen, och de högsta standarderna i världen kommer att fastställas. Den samordnade planen beskriver de policyändringar och investeringar som behövs i EU-länderna för att stärka Europas ledning i utvecklingen av människocentrerad, säker, inkluderande och tillförlitlig AI.
Den europeiska strategin för tillförlitlig AI
De nya reglerna kommer direkt att börja gälla på samma sätt i alla EU-länder baserat på en framtidssäkrad definition av AI. En riskbaserad metod används:
Oacceptabel risk
AI-system som anses utgöra ett hot mot människors säkerhet, försörjningsmöjligheter och rättigheter kommer att vara förbjudna. Detta inbegriper AI-system eller tillämpningar som manipulerar mänskligt beteende för att kringgå användarnas fria vilja (t.ex. leksaker som använder röstassistans som uppmuntrar minderåriga till farliga beteenden) och system som stater kan använda för ”social poängsättning”.
Hög risk
AI-system som anses utgöra hög risk är exempelvis AI-system som används i:
- Kritiska infrastrukturer (t.ex. transport), som kan innebära hot mot människors liv och hälsa.
- Utbildning, där systemen kan avgöra personers tillgång till utbildning och yrkeskarriär (t.ex. poängsättning av prov).
- Säkerhetskomponenter i produkter, (t.ex. AI-tillämpningar för robotstöd vid operationer).
- Anställning, arbetsledning och tillgång till egenföretagande, (t.ex. mjukvara för sortering av cv:n i samband med rekrytering).
- Väsentliga privata och offentliga tjänster,(t.ex. kreditbedömning som innebär att medborgare hindras från att ta lån).
- Brottsbekämpning som kan påverka människors grundläggande rättigheter (t.ex. bedömning av tillförlitligheten i bevis).
- Hantering av migration, asyl och gränskontroll. (t.ex. kontroll av äktheten i resehandlingar).
- Rättskipning och demokratiska processer, (t.ex. tillämpning av lagstiftning på ett konkret faktaunderlag).
AI-system med hög risk kommer att omfattas av strikta skyldigheter innan de släpps ut på marknaden.
- Ändamålsenlig riskbedömning och riskreducerande system
- Dataset av hög kvalitet som används i systemet för att minimera risker och diskriminerande resultat.
- Loggning av åtgärder för att säkerställa spårbarheten för resultaten.
- Detaljerad dokumentation som omfattar all nödvändig information om systemet och dess ändamål, lämnas till myndigheter som kontrollerar att kraven uppfylls.
- Tydlig och tillräcklig information till användaren.
- Ändamålsenliga åtgärder för mänsklig översyn för att minimera riskerna.
- Hög nivå av robusthet, säkerhet och noggrannhet.
AI-system för biometrisk fjärridentifiering anses utgöra en särskilt hög risk och omfattas därför av strikta krav. Användningen av sådana på offentligt tillgängliga platser för brottsbekämpande ändamål är i princip förbjuden. Snäva undantag är strikt definierade och reglerade (t.ex. när det är strikt nödvändigt för att söka efter ett försvunnet barn, förhindra ett specifikt och omedelbart terrorhot eller upptäcka, lokalisera, identifiera eller lagföra en förövare av ett allvarligt brott). Sådan användning ska godkännas av ett rättsligt eller annat oberoende organ och på lämpligt sätt avgränsas vad gäller tid, geografisk omfattning och genomsökta databaser.
Begränsad risk
AI-system med särskilda transparenskrav: Vid användning av sådana AI-system som chattbotar ska användarna vara medvetna om att de interagerar med en maskin så att de kan fatta ett välgrundat beslut om att fortsätta eller avsluta.
Minimal risk
Lagstiftningsförslaget tillåter fri användning av sådana tillämpningar som AI-stödda datorspel eller skräppostfilter. Den absoluta majoriteten av AI-systemen tillhör denna kategori. Utkastet till förordning omfattar inga åtgärder för dessa system, eftersom de utgör en minimal eller obefintlig risk för medborgarnas rättigheter eller säkerhet.
Vad händer nu?
Europaparlamentet och medlemsländerna kommer att behöva anta EU-kommissionens förslag till en europeisk strategi för artificiell intelligens och för maskinprodukter genom det ordinarie lagstiftningsförfarandet. När förordningarna antagits kommer de att vara direkt tillämpliga i hela EU. Samtidigt kommer EU-kommissionen att fortsätta att samverka med medlemsländerna för att genomföra de åtgärder som aviseras i den samordnade planen.
Läs mer här om den nya AI-förordningen
Zert hjälper dig med CE-märkning enligt maskindirektivet
Zert erbjuder konsultationer och applikationer för CE-märkning, riskbedömning samt skapande av den tekniska dokumentationen som krävs. Vi kan även bistå med stöd när det gäller granskning av befintlig dokumentation och kravuppfyllnad. Med våra applikationer Zert RM och Zert CLM får ditt företag allt som behövs för att möta kraven. Detta innefattar allt från checklistor, riskbedömningar, projekthantering till organisering av skyddsronder ute i er produktion. Med Zert CLM skapas enkelt den tekniska dokumentation som skall ut till användaren!
Zert har även ett abonnemang för att komma i mål med CE-märkning enligt maskindirektivet.
Läs mer om våra konsulttjänster eller kontakta oss om du vill veta mer!