Technologie 

Představení AI systémů s nepřijatelným, omezeným a minimálním rizikem

Přestože je hlavním cílem Aktu o umělé inteligenci (AI Act) regulovat systémy s vysokým rizikem a zajistit tím bezpečné fungování rizikových AI systémů v EU, je nezbytně nutné porozumět celé paletě systémů AI. Navržený přístup založený na rizicích totiž obsahuje také systémy s nepřijatelným, omezeným a minimálním rizikem. Které typy systémů do těchto kategorií spadají a jaké restrikce pro ně platí? O tom se dočtete v našem článku.

The AI CE Institute

V Deloitte dobře víme, že AI je klíčovým byznysovým tématem budoucnosti. A proto spojujeme pod jednou střechou různé odborné znalosti a vědomosti z průmyslu a akademické sféry. Jak? V rámci iniciativy The AI CE Institute. Více informací najdete na webových stránkách.

Evropský parlament přijal hlasováním dne 12. 6. 2023 své stanovisko k problematice AI, které nyní projednává se zástupci jednotlivých zemí EU a je ve fázi trialogu. Základní myšlenkou je ustanovit pravidla, která jsou ve shodě s EU jak právně, tak i hodnotově. Stavebními pilíři regulace jsou kategorie jako lidský dohled nad procesy AI, bezpečnost pro uživatele i společnost, zajištění soukromí, transparentnost, zamezení diskriminace a celková prevence před nasazením systémů AI, které mohou ohrozit zdraví bezpečnost, základní práva, demokracii nebo životní prostředí.

Systémy s nepřijatelným rizikem

Systémy AI s nepřijatelným rizikem jsou považovány za jednoznačnou hrozbu a jsou přímo zakázány. Jejich použití je povoleno pouze za určitých zákonem definovaných okolností. Prvotní návrh Evropské komise mezi tyto systémy řadí například:

  • Systémy umělé inteligence používající manipulativní „podprahové techniky“
  • Systémy umělé inteligence používané veřejnými orgány nebo jejich jménem pro sociální scoring
  • Vzdálené biometrické identifikační systémy pracující v reálném čase ve veřejně přístupných prostorách
  • Vzdálené biometrické identifikační systémy pracující „zpětně“, s výjimkou orgánů činných v trestním řízení pro stíhání závažných trestných činů a pouze po soudním povolení
  • Systémy biometrické kategorizace využívající citlivé údaje (např. pohlaví, rasa, etnický původ, občanství, náboženství a politická orientace)
  • Prediktivní policejní systémy založené na profilování, lokalizaci nebo dřívější trestné činnosti
  • Systémy rozpoznávání emocí v oblasti prosazování práva, správy hranic, na pracovišti a ve vzdělávacích institucích
  • Systémy umělé inteligence využívající zranitelné skupiny (tělesné nebo mentální postižení) k narušení chování osoby patřící k této skupině za cílem způsobit fyzické nebo psychické poškození dané osoby
  • Necílené shromažďování zobrazení obličeje z internetu nebo kamerových systémů za účelem tvorby databází pro rozpoznávání obličeje (což porušuje lidská práva a právo na soukromí)

Z uvedeného přehledu je zřejmé, že se jedná o velké množství zakázaných systémů, je to ovšem krok, který zajistí bezpečí v nyní neregulovaných aplikacích.

Akt o umělé inteligenci (AI Act) se zaměřuje zejména na kategorii vysoce rizikových systémů AI. Přečtěte si náš předchozí článek, kde jsme se tomuto tématu podrobně věnovali, a zjistěte, které systémy AI se řadí mezi vysoce rizikové a jaké podmínky musí splnit před uvedením na trh EU.

Systémy s omezeným a minimálním rizikem

Poslední částí legislativy jsou systémy AI s omezeným a minimálním rizikem. Do kategorie systémů s omezeným rizikem spadají specifické systémy zpravidla určené pro interakci s fyzickými osobami (roboti nebo chatboti), biometrické kategorizační systémy či „deep fakes“. Základním požadavkem na poskytovatele je, aby zajistil, že uživatelé těchto systémů budou informováni o interakci s nimi. V praxi to bude znamenat, že před prvním setkáním se systémem bude uživatel upozorněn, že mluví s robotem, nebo zde bude například explicitně zvýrazněno, že byl daný audio- či videozáznam upraven AI systémem, a bude uvedeno jméno člověka zodpovědného za generaci či úpravu souboru.

Systémy, jež nejsou uvedeny v žádné z kategorií, představují pouze nízké nebo minimální riziko a žádná další právní omezení při jejich vývoji a aplikaci tak v EU nebudou podle současného znění legislativy uplatňována. Záměrem Unie je ovšem systémově podněcovat vývojáře a firmy, aby dobrovolně přijímali požadavky na systémy s vysokým rizikem i při vývoji málo rizikových aplikací.

Týká se chystaná regulace umělé inteligence i vaší společnosti? Chcete využít technologie založené na umělé inteligenci, případně se přímo podílíte na jejich vývoji? Deloitte vám nabízí komplexní podporu pro zajištění vaší shody s nařízením AI Act. Naše služby zahrnují např. posouzení zralosti firmy k adaptaci AI řešení a jeho dopadům, implementace celého životního cyklu modelu, vytváření a aktualizaci interních procesů, podporu při tvorbě strategií, vzdělávání zaměstnanců a řadu dalšího. Pro více informací navštivte naše webové stránky.

Umělá inteligence EU

Nadcházející akce

Semináře, webcasty, pracovní snídaně a další akce pořádané společností Deloitte.

    Zobrazit vícearrow-right