Technologie  Právo 

Etické aspekty využití umělé inteligence v soudních systémech

Využití umělé inteligence (AI) v soudních systémech má zlepšit efektivitu a kvalitu soudnictví. Aby však mohla sloužit občanům i soudům, je třeba ji využívat zodpovědně, respektovat základní práva jedinců a přitom mít na paměti některé základní zásady jako transparentnost, nediskriminace, kvalita a bezpečnost. Jak velká je pravděpodobnost, že naše práva budou v soudních síních svěřena algoritmům?

Nedávné zkušenosti, jako je chatovací robot na bázi AI, který se naučil pronášet nenávistné výroky, nebo HR nástroj diskriminující uchazeče o zaměstnání na základě pohlaví, ukazují, že tato technologie má k využití v soudní síni ještě daleko. Zavedení AI do soudních systémů jistě představuje výzvu, jelikož práce soudců zahrnuje víc než jen dodržování pravidel. Proces rozhodování je založen na morálních zásadách, které jsou svojí podstatou spojené s naší společností a které je obtížné vyjádřit vzorci nebo algoritmy.

Stejně jako každá nová „převratná“ technologie i AI slibuje velký krok vpřed. Spolu s novými možnostmi však využití umělé inteligence v soudních systémech vytváří i velmi komplexní výzvy a vzbuzuje řadu otázek z hlediska práva i etiky. Co je spravedlivé a co je správné? Kdo posoudí, co je skutečně spravedlivé? Bude soudce v podobě umělé inteligence dosahovat stejných, nebo lepších výsledků?

Sci-fi, nebo možná budoucnost?

Badatelé již představili počítač na bázi AI, který dokáže předpovídat výsledky soudních řízení lépe než člověk. Zatímco jeho konstruktéři doufali, že by přístroj mohl být brzy v soudních síních využíván, odborníci varují, že využívání AI například pro souzení zločinců je nebezpečný nápad. Zároveň však policejní oddělení v USA využívají prediktivní algoritmy pro přijímání strategických rozhodnutí, kam vyslat hlídky, a systémy umožňující rozpoznávání obličejů jsou běžně užívány jako pomůcka při identifikaci podezřelých ze známých databází. Co když jsou však takovéto prediktivní algoritmy používány k identifikaci potenciálních pachatelů? Vidíte-li zde nějakou podobnost se Spielbergovým snímkem Minority Report, kde byl Tom Cruise falešně obviněn na základě manipulace s prediktivním systémem, není možná takováto budoucnost příliš daleko.

Byla vedena také řada diskuzí o algoritmech vyhodnocujících riziko kriminality, které měly být využity v pozdějších fázích trestních řízení, aby předpovídaly potenciální recidivu obviněného. Základní myšlenka zní jednoduše: Algoritmus se aplikuje na podrobnosti profilu obviněného a vypočítá bilanci recidivity odhadující její pravděpodobnost. Soudce toto automaticky vypočítané skóre zohlední ve svém rozhodnutí, přičemž je mu nicméně ponecháno právo vlastního uvážení. Co kdyby však strojům mohl být celý proces přijímání rozhodnutí přenechán? Ačkoli dokážeme naučit stroje učit se, nemůžeme plně pochopit, jak rozvíjejí své chování, tudíž nemůžeme předvídat výsledky. Dokážeme se dříve či později vyvarovat chyb nebo manipulace, i kdyby chybu nebylo možné přičíst lidskému omylu?

Klíč k poznání nepoznaného

Strach z neznámého je zřejmý a vnímání rizik, která s sebou AI přináší, se může napříč různými kulturami výrazně lišit. V Evropě například nařízení o ochraně osobních údajů (GDPR) zakazuje ryze automatizované rozhodování o zpracovávání osobních údajů s právními následky ovlivňujícími jednotlivce. Zdá se, že chuť riskovat související s přijetím plně automatizovaných nástrojů, které mohou ovlivňovat naše životy, je ve srovnání s přijímáním například prediktivních analytických nástrojů zefektivňujících podnikové procesy spíše malá. Široké přijetí AI do soudních systémů tak souvisí s tím, jak technologii vnímá společnost. Součástí procesu zavedení AI by tedy měla být komunikace s veřejností a aktivní naslouchání jejím obavám. Pro dosažení hlubokého pochopení systémů strojového učení a jejich účinné přijetí musejí právníci spolupracovat se softwarovými inženýry a sociology, což může rovněž představovat určitou výzvu.

Po celém světě byly nedávno spuštěny iniciativy, jejichž cílem je zabývat se otázkami etiky a práva při používání AI a zajistit, aby základní lidská práva byla umělou inteligencí respektována. Komise Rady Evropy pro hodnocení efektivity justice (CEPEJ) přijala v prosinci 2018 první evropský text stanovující etické zásady týkající se využití umělé inteligence v soudních systémech („Charta“). Tato charta mimo jiné navrhuje, aby etika, respektování lidských práv a zásady nezávislosti soudů byly součástí vývoje veškerých systémů založených na využití umělé inteligence již od samého začátku.

Robot soudcem

Co by AI mohla znamenat pro budoucí roli soudce? V soudní síni budoucnosti by teoreticky mohly nastat tři základní scénáře:

  1. nic se nezmění a my se nadále budeme muset spokojit s „nedokonalými“ lidskými bytostmi,
  2. lidé-soudci budou s nástroji umělé inteligence pracovat bok po boku,
  3. lidé-soudci budou nahrazeni „dokonalými“ systémy umělé inteligence.

Koho byste nejraději nechali rozhodovat váš případ? My jsme se ještě nerozhodli, ale jak kdysi řekl generál armády Spojených států Omar Bradley: „Budeme-li nadále rozvíjet technologii bez moudrosti nebo obezřetnosti, může se náš sluha stát naším popravčím.“ Toto tvrzení je pravdivé, zejména snažíme-li se naučit počítače myslet jako lidé.

Právo a technologie Umělá inteligence Singularity University

Nadcházející akce

Semináře, webcasty, pracovní snídaně a další akce pořádané společností Deloitte.

    Zobrazit vícearrow-right