Umělá inteligence se postupně stává naším každodenním pomocníkem a začíná pronikat do téměř všech společenských sfér. S tímto fenoménem vzrostla i potřeba ze strany Evropské unie vytvořit právní rámec pro užívání umělé inteligence a danou oblast regulovat. Od 1. 8. 2024 vstoupilo v platnost nařízení 2024/1689, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (dále jen „AI akt“). Pojďme si jej představit a shrnout jeho hlavní přínosy.
Cílem AI aktu je zajistit, aby systémy umělé inteligence byly bezpečné, transparentní a důvěryhodné, respektovaly základní práva a společenské hodnoty, podporovaly inovace a posilovaly jednotný evropský trh pro umělou inteligenci.
Na koho se AI akt vztahuje?
AI Akt se vztahuje především na poskytovatele systémů umělé inteligence, jakož i na poskytovatele tzv. GPAI systémů, kteří tyto AI systémy uvádějí na trh nebo do provozu v rámci EU. Regulace AI aktu se na uvedené subjekty aplikuje bez ohledu na to, zda se nacházejí nebo jsou usazeny v EU. AI Akt se vztahuje i na subjekty, které systémy umělé inteligence implementují (tzv. “deployers”) a jsou rovněž usazeny nebo se nacházejí na území EU.
Pro běžného uživatele (občana) nevyplývá z AI aktu žádná zásadní povinnost. Běžnému uživateli by však měl AI akt zaručit, že jím užívané systémy umělé inteligence budou nediskriminační a nebudou porušovat základní práva. Většina požadavků AI aktu se týká především vysoce rizikových systémů umělé inteligence nebo obecných modelů AI, které pro svou složitost nebo specifický způsob využití mohou představovat určitou míru rizika.

Systémy rizik umělé inteligence
AI akt definuje celkem 4 úrovně míry rizik u systémů umělé inteligence, jež kategorizuje na (a) zakázané, (b) vysoce rizikové, (c) s omezeným rizikem, a (d) s minimálním rizikem. Systémy, které mají nepřijatelnou míru rizika jsou zakázané pro rozpor se základními hodnotami a cíli Evropské unie. Příkladem systémů spadajících do „zakázané“ kategorie může být užívání biometrické identifikace na dálku v reálném čase na veřejných prostranstvích, užívání sociálních skórovacích systémů, nebo užívání technik podprahového ovlivňování.
Vysoce rizikové systémy bude možné na trh uvádět, ale budou podléhat přísným regulatorním požadavkům. Provozování vysoce rizikových modelů AI bude vyžadovat například zavedení vhodného systému řízení rizik s pravidelnými aktualizacemi, vypracování a průběžnou aktualizaci technické dokumentace či lidský dohled zaměřený na minimalizaci rizik spojených s těmito systémy. Vysoce rizikové systémy budou rovněž muset být registrovány v databázi EU.
Systémy umělé inteligence s omezeným nebo minimálním rizikem, které v praxi tvoří většinu systémů umělé inteligence (např. chatboti či systémy manipulující s obrazovým, zvukovým či video obsahem), by měly splňovat minimální požadavky transparentnosti. Jejich uživatel by tedy především měl být dopředu informován o tom, že pracuje se systémem umělé inteligence.
Závěr
AI akt představuje důležitý krok v regulaci rychle se rozvíjející technologie umělé inteligence, která má potenciál zásadně ovlivnit chod naší společnosti, a to nejen ekonomicky, ale také psychologicky a morálně. V nadcházejících letech bude proto zajímavé sledovat, jak se bude právní rámec dále vyvíjet s ohledem na neustále se rozšiřující praktické využití umělé inteligence.
