Spojte se s námi

Co hledáte?

Legislativa

AI pod kontrolou – nová pravidla Evropské unie

Umělá inteligence se postupně stává naším každodenním pomocníkem a začíná pronikat do téměř všech společenských sfér. S tímto fenoménem vzrostla i potřeba ze strany Evropské unie vytvořit právní rámec pro užívání umělé inteligence a danou oblast regulovat. Od 1. 8. 2024 vstoupilo v platnost nařízení 2024/1689, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (dále jen „AI akt“). Pojďme si jej představit a shrnout jeho hlavní přínosy.

Cílem AI aktu je zajistit, aby systémy umělé inteligence byly bezpečné, transparentní a důvěryhodné, respektovaly základní práva a společenské hodnoty, podporovaly inovace a posilovaly jednotný evropský trh pro umělou inteligenci.

Na koho se AI akt vztahuje?

AI Akt se vztahuje především na poskytovatele systémů umělé inteligence, jakož i na poskytovatele tzv. GPAI systémů, kteří tyto AI systémy uvádějí na trh nebo do provozu v rámci EU. Regulace AI aktu se na uvedené subjekty aplikuje bez ohledu na to, zda se nacházejí nebo jsou usazeny v EU. AI Akt se vztahuje i na subjekty, které systémy umělé inteligence implementují (tzv. “deployers”) a jsou rovněž usazeny nebo se nacházejí na území EU.

Pro běžného uživatele (občana) nevyplývá z AI aktu žádná zásadní povinnost. Běžnému uživateli by však měl AI akt zaručit, že jím užívané systémy umělé inteligence budou nediskriminační a nebudou porušovat základní práva. Většina požadavků AI aktu se týká především vysoce rizikových systémů umělé inteligence nebo obecných modelů AI, které pro svou složitost nebo specifický způsob využití mohou představovat určitou míru rizika.

JUDr. Jindřich Vítek, Ph.D., zakladatel advokátní kanceláře Matzner & Vítek a odborný asistent na právnické fakultě

Systémy rizik umělé inteligence

AI akt definuje celkem 4 úrovně míry rizik u systémů umělé inteligence, jež kategorizuje na (a) zakázané, (b) vysoce rizikové, (c) s omezeným rizikem, a (d) s minimálním rizikem. Systémy, které mají nepřijatelnou míru rizika jsou zakázané pro rozpor se základními hodnotami a cíli Evropské unie. Příkladem systémů spadajících do „zakázané“ kategorie může být užívání biometrické identifikace na dálku v reálném čase na veřejných prostranstvích, užívání sociálních skórovacích systémů, nebo užívání technik podprahového ovlivňování.

Buďte vidět!
Natočte video nebo podcast
a oslovte nové klienty.

ZEPTEJTE SE

Vysoce rizikové systémy bude možné na trh uvádět, ale budou podléhat přísným regulatorním požadavkům. Provozování vysoce rizikových modelů AI bude vyžadovat například zavedení vhodného systému řízení rizik s pravidelnými aktualizacemi, vypracování a průběžnou aktualizaci technické dokumentace či lidský dohled zaměřený na minimalizaci rizik spojených s těmito systémy. Vysoce rizikové systémy budou rovněž muset být registrovány v databázi EU.

Systémy umělé inteligence s omezeným nebo minimálním rizikem, které v praxi tvoří většinu systémů umělé inteligence (např. chatboti či systémy manipulující s obrazovým, zvukovým či video obsahem), by měly splňovat minimální požadavky transparentnosti. Jejich uživatel by tedy především měl být dopředu informován o tom, že pracuje se systémem umělé inteligence.

Závěr

AI akt představuje důležitý krok v regulaci rychle se rozvíjející technologie umělé inteligence, která má potenciál zásadně ovlivnit chod naší společnosti, a to nejen ekonomicky, ale také psychologicky a morálně. V nadcházejících letech bude proto zajímavé sledovat, jak se bude právní rámec dále vyvíjet s ohledem na neustále se rozšiřující praktické využití umělé inteligence.

Námět na téma

Líbil se Vám náš příspěvek? Jaké další téma chcete vidět na LEAGLEONE?

Mohlo by vás zajímat

Majetek

Novelu energetického zákona, která umožňuje sdílení energií, zaznamenala pouze čtvrtina populace. Přes 40 % se ale s problematikou setkalo. Zájem sdílet elektřinu deklarují 3...

Justice

V České republice se ročně spáchá asi dvanáct tisíc znásilnění. Na policii je jich nahlášeno ale pouze šest set. Ve většině případů je pachatel...

Legislativa

Zpozdili jste se někdy s fakturací své odměny? Pokud ano, tak zbystřete! Velký senát Nejvyššího soudu nedávno vydal významný rozsudek 31 Cdo 3125/2022 v oblasti promlčení,...

Advokacie

Česká advokátní komora (ČAK) se snaží zvýšit bezpečnost advokátních úschov vůči možným zpronevěrám. Nově proto stanovila advokátům povinnost informovat klienty, že si od bank...