Technologie 

AI Act a další platná legislativa

Protože se regulatorní normy jako AI Act (Akt o umělé inteligenci) často prezentují a vysvětlují samostatně, určité aspekty či motivace jejich znění mohou zaniknout neznalostí kontextu či vize instituce, jež je vydává. Následující článek má za cíl představit přehled navazující literatury a strategie, s nimiž zákonodárci Evropské unie vytvořili AI Act.

The AI CE Institute

V Deloitte dobře víme, že AI je klíčovým byznysovým tématem budoucnosti. A proto spojujeme pod jednou střechou různé odborné znalosti a vědomosti z průmyslu a akademické sféry. Jak? V rámci iniciativy The AI CE Institute. Více informací najdete na webových stránkách.

Návrh AI Actu vychází z principu jednotného vnitřního trhu umělé inteligence. Požadavkem je, aby právní úprava sjednotila dnes sporadickou a roztříštěnou škálu lokálních pravidel, která by v blízké budoucnosti komplikovala volný pohyb digitálních produktů. Samotná aplikace práva EU v oblasti AI bude vykonávána formou nařízení, které je pro členské státy závazné a přímo aplikovatelné.

Vzhledem k vysoké komplexitě a široké aplikovatelnosti Aktu o umělé inteligenci se orgány EU vypořádávají s velkým množstvím již platné legislativy, ať již je to Listina základních práv EU, ochrana osobních údajů, ochrana spotřebitele či zákaz diskriminace a rovnost žen a mužů. Návrh je v souladu s obecným nařízením o ochraně osobních údajů (GDPR) i se směrnicí o ochraně údajů p . Současně je nutné, aby byl zajištěn plný soulad se stávajícími právními předpisy v odvětvích, ve kterých jsou již vysoce rizikové systémy používány nebo u nichž je předpoklad, že k jejich užívání dojde v blízké budoucnosti.

Zakázané či omezené postupy v oblasti AI a potřeba jejich právního zakotvení

Jednotlivá obecná či oborová nařízení se budou muset vypořádat s níže uvedenými požadavky na digitální produkty. V oblasti vývoje AI jsou definovány tři hlavní pilíře, které jsme již rozebrali v předchozích článcích, a regulační zásahy tak budou odstupňovány dle dohodnutých kritérií:

  • První pilíř zakazuje používání modelů s nepřijatelným rizikem, které podprahově ovlivňují lidské chování, a provádí sociální scoring či omezení biometrické identifikace na dálku.
  • Druhý pilíř reguluje systémy s vysokým rizikem, jež mohou být potenciálně nebezpečné pro své uživatele – zařízení ve zdravotnictví, vzdělávání či transport.
  • Třetí pilíř nastavuje základní pravidla pro modely s omezeným či minimálním rizikem, zastoupené například „deep fake“ modely či chatboty.

Pokud jsou systémy AI zároveň obsažené v bezpečnostních částech produktů, požaduje EU, aby byly začleněny do stávajících odvětvových právních předpisů v oblasti bezpečnosti. To platí zejména pro součásti produktů, na které se vztahují právní předpisy nového legislativního rámce pro průmyslové výrobky (NLR). Jako příklad těchto produktů můžeme uvést těžkou techniku, hračky či zdravotnická zařízení.

Soulad s ostatními politikami Unie

AI Act má být jedním z prostředků, jak vybudovat Evropu pro digitální dekádu. Návrh AI Actu je součástí Evropského přístupu k umělé inteligenci reprezentovaného Bílou knihou o AI. Tím je zajištěno, že bude text v souladu s aktuální evropskou AI strategií. Rovněž je zajištěn soulad s celkovou digitální strategií Evropské komise, pokud jde o její příspěvek k podpoře technologií sloužících lidem. Podpora inovací založených na AI je navíc úzce spojena s Aktem o správě dat, se směrnicí o otevřených datech a s dalšími iniciativami v rámci strategie EU pro data. V neposlední řadě návrh významně posiluje úlohu Unie v oblasti formování globálních norem a standardů prosazujících důvěryhodnou AI, jež je v souladu s hodnotami a zájmy Evropské unie.

Velmi důležitým textem z právního hlediska je Směrnice o odpovědnosti za umělou inteligenci, která stanovuje pravidla pro mimosmluvní občanskoprávní odpovědnosti za škody způsobené umělou inteligencí. Směrnice řeší důkazní břemeno a zajišťuje, aby nebylo bráněno oprávněným nárokům na náhradu škody a poškození byli chráněni jako v případě tradičních technologií. Toto je především důležité, pokud je AI systém prodáván jako produkt, jelikož autor modelu je za něj odpovědný také třetí straně.

Protože se neustále navyšuje počet kybernetických útoků nejenom na systémy AI, Evropská unie reaguje zvyšováním nároků na kybernetickou bezpečnost firem. Nový zákon o kybernetické bezpečnosti implementující NIS2 bude platit dle předpokladů od druhé poloviny roku 2024 a přináší kostru představující řídicí struktury pro zajištění bezpečného provozu systémů a sítí firem napříč vybranými sektory. Nařízení Nařízení je také označováno za první Internet of Things (IoT) legislativu na světě a přináší pravidla pro zařízení, která jsou připojena k internetu jako chytré reproduktory, hodinky, počítačové hry a podobně. Výrobci těchto softwarových a hardwarových produktů budou muset nově splňovat požadavky na kybernetickou bezpečnost dané právě CRA, a systémy založené na AI spadající do stejných kritérií budou tedy muset plnit i podmínky další evropské

Týká se chystaná regulace umělé inteligence i vaší společnosti? Chcete využít technologie založené na umělé inteligenci, případně se přímo podílíte na jejich vývoji? Deloitte vám nabízí komplexní podporu pro zajištění vaší shody s nařízením AI Act. Naše služby zahrnují např. posouzení zralosti firmy k adaptaci AI řešení a jeho dopadům, implementace celého životního cyklu modelu, vytváření a aktualizaci interních procesů, podporu při tvorbě strategií, vzdělávání zaměstnanců a řadu dalšího. Pro více informací navštivte naše webové stránky.

Umělá inteligence Kybernetická bezpečnost

Nadcházející akce

Semináře, webcasty, pracovní snídaně a další akce pořádané společností Deloitte.

    Zobrazit vícearrow-right