Technologie  Právo 

Etické aspekty využití umělé inteligence v soudních systémech

Využití umělé inteligence (AI) v soudních systémech má zlepšit efektivitu a kvalitu soudnictví. Aby však mohla sloužit občanům i soudům, je třeba ji využívat zodpovědně, respektovat základní práva jedinců a přitom mít na paměti některé základní zásady jako transparentnost, nediskriminace, kvalita a bezpečnost. Jak velká je pravděpodobnost, že naše práva budou v soudních síních svěřena algoritmům?

Nedávné zkušenosti, jako je chatovací robot na bázi AI, který se naučil pronášet nenávistné výroky, nebo HR nástroj diskriminující uchazeče o zaměstnání na základě pohlaví, ukazují, že tato technologie má k využití v soudní síni ještě daleko. Zavedení AI do soudních systémů jistě představuje výzvu, jelikož práce soudců zahrnuje víc než jen dodržování pravidel. Proces rozhodování je založen na morálních zásadách, které jsou svojí podstatou spojené s naší společností a které je obtížné vyjádřit vzorci nebo algoritmy.

Stejně jako každá nová „převratná“ technologie i AI slibuje velký krok vpřed. Spolu s novými možnostmi však využití umělé inteligence v soudních systémech vytváří i velmi komplexní výzvy a vzbuzuje řadu otázek z hlediska práva i etiky. Co je spravedlivé a co je správné? Kdo posoudí, co je skutečně spravedlivé? Bude soudce v podobě umělé inteligence dosahovat stejných, nebo lepších výsledků?

Sci-fi, nebo možná budoucnost?

Badatelé již představili počítač na bázi AI, který dokáže předpovídat výsledky soudních řízení lépe než člověk. Zatímco jeho konstruktéři doufali, že by přístroj mohl být brzy v soudních síních využíván, odborníci varují, že využívání AI například pro souzení zločinců je nebezpečný nápad. Zároveň však policejní oddělení v USA využívají prediktivní algoritmy pro přijímání strategických rozhodnutí, kam vyslat hlídky, a systémy umožňující rozpoznávání obličejů jsou běžně užívány jako pomůcka při identifikaci podezřelých ze známých databází. Co když jsou však takovéto prediktivní algoritmy používány k identifikaci potenciálních pachatelů? Vidíte-li zde nějakou podobnost se Spielbergovým snímkem Minority Report, kde byl Tom Cruise falešně obviněn na základě manipulace s prediktivním systémem, není možná takováto budoucnost příliš daleko.

Byla vedena také řada diskuzí o algoritmech vyhodnocujících riziko kriminality, které měly být využity v pozdějších fázích trestních řízení, aby předpovídaly potenciální recidivu obviněného. Základní myšlenka zní jednoduše: Algoritmus se aplikuje na podrobnosti profilu obviněného a vypočítá bilanci recidivity odhadující její pravděpodobnost. Soudce toto automaticky vypočítané skóre zohlední ve svém rozhodnutí, přičemž je mu nicméně ponecháno právo vlastního uvážení. Co kdyby však strojům mohl být celý proces přijímání rozhodnutí přenechán? Ačkoli dokážeme naučit stroje učit se, nemůžeme plně pochopit, jak rozvíjejí své chování, tudíž nemůžeme předvídat výsledky. Dokážeme se dříve či později vyvarovat chyb nebo manipulace, i kdyby chybu nebylo možné přičíst lidskému omylu?

Klíč k poznání nepoznaného

Strach z neznámého je zřejmý a vnímání rizik, která s sebou AI přináší, se může napříč různými kulturami výrazně lišit. V Evropě například nařízení o ochraně osobních údajů (GDPR) zakazuje ryze automatizované rozhodování o zpracovávání osobních údajů s právními následky ovlivňujícími jednotlivce. Zdá se, že chuť riskovat související s přijetím plně automatizovaných nástrojů, které mohou ovlivňovat naše životy, je ve srovnání s přijímáním například prediktivních analytických nástrojů zefektivňujících podnikové procesy spíše malá. Široké přijetí AI do soudních systémů tak souvisí s tím, jak technologii vnímá společnost. Součástí procesu zavedení AI by tedy měla být komunikace s veřejností a aktivní naslouchání jejím obavám. Pro dosažení hlubokého pochopení systémů strojového učení a jejich účinné přijetí musejí právníci spolupracovat se softwarovými inženýry a sociology, což může rovněž představovat určitou výzvu.

Po celém světě byly nedávno spuštěny iniciativy, jejichž cílem je zabývat se otázkami etiky a práva při používání AI a zajistit, aby základní lidská práva byla umělou inteligencí respektována. Komise Rady Evropy pro hodnocení efektivity justice (CEPEJ) přijala v prosinci 2018 první evropský text stanovující etické zásady týkající se využití umělé inteligence v soudních systémech („Charta“). Tato charta mimo jiné navrhuje, aby etika, respektování lidských práv a zásady nezávislosti soudů byly součástí vývoje veškerých systémů založených na využití umělé inteligence již od samého začátku.

Robot soudcem

Co by AI mohla znamenat pro budoucí roli soudce? V soudní síni budoucnosti by teoreticky mohly nastat tři základní scénáře:

  1. nic se nezmění a my se nadále budeme muset spokojit s „nedokonalými“ lidskými bytostmi,
  2. lidé-soudci budou s nástroji umělé inteligence pracovat bok po boku,
  3. lidé-soudci budou nahrazeni „dokonalými“ systémy umělé inteligence.

Koho byste nejraději nechali rozhodovat váš případ? My jsme se ještě nerozhodli, ale jak kdysi řekl generál armády Spojených států Omar Bradley: „Budeme-li nadále rozvíjet technologii bez moudrosti nebo obezřetnosti, může se náš sluha stát naším popravčím.“ Toto tvrzení je pravdivé, zejména snažíme-li se naučit počítače myslet jako lidé.

Právo a technologie Umělá inteligence Singularity University
Technologie  Deloitte živě 

Společnost Greycortex je vlastně takový doktor. Zajišťuje, aby jeho klienti nedostali nemoc z kybernetické nákazy

Co člověk zahesluje, to také odhesluje. Tohle platilo pár let zpátky. Dnes kyberkriminálníci využívají pokročilé technologie, útoky jsou mnohem sofistikovanější. A cílenější. Následky pak také mnohem horší. „Vyvíjí se nejen ta dobrá strana, tedy firmy zabývající se kybernetickou ochranou, ale i ta špatná. Útoky vedou přes slabá místa a lidské chyby,“ říká Petr Chaloupka, CEO společnosti Greycortex, která řeší zabezpečení počítačových a bezpečnostních sítí. Příběh této firmy, která uspěla mezi nejrychleji rostoucími technologickými společnostmi, se začal psát hodně dávno před jejím vznikem. Je o vášni, vizi, dovednostech, ale i pořádné dávce humoru. A vlastně je tak trochu spojen i s počátky komputerizace v Československu. 

2. 12. 2020
Nemovitosti  Právo 

Dopad koronavirové pandemie na nemovitostní trh

Vládní opatření přijatá v souvislosti s druhou vlnou koronavirové pandemie opět omezila fungování řady firem a podnikatelů. Jako jeden z nástrojů pro zmírnění negativních dopadů tohoto omezení schválila vláda program Covid – Nájemné 2, v jehož rámci mohou podnikatelé a firmy žádat o dotaci na komerční nájem. Od první výzvy se liší tím, že již neobsahuje podmínku, aby pronajímatel slevil žadateli minimálně 30 procent nájemného. Za jakých podmínek se tedy může žádat? A jak trh s komerčním nájmem poznamenala současná krize? 

1. 12. 2020
Právo 

Digitalizace a automatizace mají obrovský potenciál a my chceme být v čele pelotonu, říká Jan Spáčil z Deloitte Legal

„V těžkých dobách přestává být inovace pouhou příležitostí a stává se nutností. V programu regenerace pomáháme klientům dívat se dopředu a překlenout složité období. Pochopit, kam nás například přechod do on-line prostředí posunul a jak čerpat z jeho výhod. Digitalizace a automatizace mají obrovský potenciál a my chceme být v čele pelotonu,“ říká Jan Spáčil, vedoucí partner Deloitte Legal Česká republika. V rozhovoru promluvil také o tom, jak se právní byznys přelévá do on-line prostředí, o úzké spolupráci se start-upy v oblasti LegalTech a také o motivaci mladých talentů. 

26. 11. 2020