Otázkou není, zda se počítače a umělá inteligence budou podílet na rozhodování soudů. Určitým způsobem se podílejí již dnes a usnadňují tím práci mnoha právníkům nejen u soudu. Otázka zní, jak nastavit pomyslný Rubikon pro rozsah využití a vlivu algoritmů a budoucí umělé inteligence v soudnictví. Které principy prolomit lze a které nikoliv?
V květnu 2017 publikoval americký deník The New York Times článek s názvem „Sent to prison by a software program’s secret algorithms“. Pojednává o případu odsouzení amerického občana Erica Loomise na šest let vězení za užívání a řízení kradeného vozidla použitého při přestřelce. Zdánlivě běžný případ se totiž odlišoval jednou novinkou. Tou bylo využití softwaru Compas vyvinutého michiganskou společností Northpoint, který shromažďuje a vyhodnocuje řadu informací k posouzení, jak velká je u trestně stíhané osoby pravděpodobnost, že se stane recidivistou, tedy jaké má předpoklady pro opakování trestné činnosti. Program využívá různé metody od vyhodnocování duševního stavu jedince a souvisejících rizik („NIJ Mental Health Screening and Brief Jail Mental Health Screening“), přes vězeňskou disciplínu či sledování gangů („Gang Tracking“), až po tzv. správu bydlení, která mimo jiné vyhodnocuje rizika ubytování dané osoby spolu s jinými konkrétními osobami a s ohledem na vzájemné vyhodnocení těchto osob a důsledky jejich soužití a vlivu („Inmate Housing Management“). Samotný název Compas je zkratkou pro vytváření profilu za účelem nápravy pachatele deliktů a stanovení alternativní sankce („the acronym for Correctional Offender Management Profiling for Alternative Sanctions“).
Nicméně již dříve přinesl tento program bouřlivou debatu v americké společnosti odborné i laické. Příkladem je článek deníku Washington Post ze dne 17. října 2016, který reakce na využívání daného algoritmu americkými soudy shrnuje větou: „Je to kontroverze, která se dotýká některých velkých problémů trestní spravedlnosti, kterým čelí naše společnost.“
Abychom to upřesnili, algoritmus má být soudy využíván primárně pro rozhodování o tom, zda obžalovaní nejsou příliš nebezpeční, či spíše zda u nich nehrozí velké riziko v případě propuštění na kauci. Hovoříme tedy o využívání v rámci ukládání alternativních trestů. Nelze tedy říct, že by program nahrazoval soudce v samotném rozhodování. Přesnější je závěr, že částečně nahrazuje soudce ve vyhodnocování určitých souvislostí či důkazů.
Algoritmus na základě vyhodnocení dat přiřazuje osobám (obviněným) skóre od 1 do 10. Zjednodušeně řečeno tak u dané osoby určí pravděpodobnost další recidivy, a to na základě vyhodnocení více než 100 faktorů.
V reakci na využívání algoritmu soudy se objevily názory, že program COMPAS je zaujatý proti černochům. Nejvyšší soud ve Wisconsinu však následně využívání tohoto algoritmu potvrdil právě ve svém výše zmíněném rozhodnutí Stát Wisconsin vs. Eric L. Loomis, No. 2015AP157-CR. Zastánci využívání algoritmu argumentují tím, že mezi faktory pro vyhodnocování pravděpodobnosti recidivy (viz předchozí odstavec) není jako faktor zahrnuta rasa. Nicméně jeho odpůrci tvrdí, že byť rasa není uvedena přímo, tak několik vyhodnocovaných faktorů je nastaveno tak, že nepřímo mohou tento negativní a diskriminační vliv vyvolat. Patrně ani u algoritmů nelze zcela vyloučit určitou subjektivitu či zkreslení. Koneckonců jeho parametry stále zadávají lidí a uvedené charakteristiky jsou pro lidský faktor příznačné. Otázkou je, jak zásadní a relevantní je tato otázka. Nakonec přeci jen rozhoduje soud a soudce je člověk, jehož rozhodování bude vždy konfrontováno s kritériem spravedlnosti a vždy bude náchylné podléhat lidským faktorům.
Patrně bez debat je přínos algoritmů v rovině urychlení zpracování informací a tím i rozhodování. A právě odlehčení agendy soudcům a zrychlení soudních řízení jsou přeci aktuální problémy justice.
Pokud se jedná o využívání algoritmů a jiných softwarů obecně, mám za to, že v mnoha případech to přinese pozitivní vliv na soudní řízení. Jeho urychlení může ve společnosti zvýšit důvěru v soudnictvím a právní stát. Koneckonců určitým způsobem přinášejí obdobné zpracování informací a jejich vyhodnocení dnes zcela běžné znalecké posudky. A počítačové programy dnes soudcům běžně vyhodnocují pravděpodobnost rozhodnutí odvolacích soudů apod.
V čem se však využívání algoritmu COMPAS a podobných liší, je jejich etická rovina. Nehodnotí totiž pouze určité technické parametry nebo dílčí otázky, ale hodnotí a v podstatě předem kádrují člověka jako takového. A to z nich činí nejen pomocníka, ale také potenciálně nebezpečný nástroj. Společnost se s touto otázkou bude muset vypořádat, a to ideálně dříve, než se používání těchto nástrojů zásadně rozšíří. A základní otázkou bude, jak nastavit pomyslný Rubikon pro rozsah využití a vlivu algoritmů a budoucí umělé inteligence v soudnictví. Abychom jednou neprolamovali presumpci neviny s odůvodněním, že zájem na předcházení trestné činnosti s ohledem na poznatky získané díky algoritmů nám takové prolomení ospravedlní.
Jiří Klega,
advokát a vysokoškolský pedagog