Rozhovor
Zakladatel Centra pro digitalizaci a umělou inteligenci v justici (CendAI) a místopředseda Vrchního soudu v Praze Roman Horáček zůstává v souvislosti s umělou inteligencí (AI) optimistou. „Možná máme reálnou možnost přejít od justice rakouskouherského typu k justici moderní, a přitom pro její uživatele přívětivé,“ říká s tím, že soudního jednání se bude možné díky novým technologiím účastnit třeba i doma u počítače bez stresu z cesty a setkání s protistranou. Stoupne tím podle něj i efektivita při plánování času pro advokáty. „I v justici je třeba využít potenciál nové technologie, ale přitom nastavit mechanismy, které zabrání jejímu zneužití,“ dodává.
Jaké výzvy v justici, ale i ve společnosti jako celku, před námi stojí v souvislosti s vývojem AI? Kde již dnes AI pomáhá, bude pomáhat a kde je třeba být obezřetní a připravit se na nástrahy? Nezanikne etika a morálka mezi deepfakes, falešnými důkazy vytvořenými AI…?
„Právo jde ruku v ruce s morálkou. Kulhá-li morálka, vbrzku začne kulhat i právo,“ říká soudce. Cílem Centra je přispět k modernizaci justice a zajistit, aby nové technologie sloužily ke zlepšení výkonu spravedlnosti a právní jistotě účastníků řízení. AI může být dobrý sluha, ale zlý pán, na co vše je třeba se připravit?
V únoru tohoto roku jste otevřeli Centrum pro digitalizaci a umělou inteligenci v justici (CendAI), jaké je jeho hlavní poslání?
Poslaní Centra pro digitalizaci a umělou inteligenci v justici lze shrnout do dvou bodů. Etika a právo. V oblasti etické chceme nastavit pravidla pro fungování a využívání umělé inteligence v justici, zejména pokud jde o problematiku dnes zcela živelného využívání AI soudci i administrativou soudů, a dále vyřešit dopady využití, možná i zneužití, AI v důkazních řízeních, zejména před trestními soudy. Jde o problematiku tzv. deepfakes.
Vaším mottem je: „Optimisté se domnívají, že AI udělá jednou vše lépe a rychleji než my. Pesimisté se bojí, že je to pravda.“ Je to tak, AI nám může být v mnoha směrech prospěšná, už dnes se hojně v nejrůznějších profesích využívá ke zjednodušení rutinních úkonů a ušetření času při dohledávání, shromažďování dat, rešerších a podobně. Na druhé straně ale vzbuzuje i velké obavy, aby se nám AI nevymkla z rukou…
Vámi citované motto, použité na našich webových stránkách, je myslím vše říkající. Dnes máme ve veřejnosti, včetně justiční veřejnosti, dvě zcela oddělené skupiny lidí. Jedna odmítá využití AI v justici, se slovy, že nelze v soudních řízeních vynechat lidský prvek, a druhá, která naopak výrazně horuje pro maximální využití AI v soudních řízeních. Přestože jsem právník, technika a pokrok lidstva mě vždy bavily, takže v soukromí jsem příznivec druhé skupiny. Jako soudce si však uvědomuji, že AI je dobrý sluha, ale zlý pán. Proto i v justici je třeba využít potenciál nové technologie, ale přitom nastavit mechanismy, které zabrání zneužití této technologie, zejména v řízení před soudy.
Kde všude již dnes v rámci justice AI pomáhá, v čem výhledově může být dobrým pomocníkem?
V rámci justice již došlo přispěním Ministerstva spravedlnosti, zejména paní ředitelky Eleny Ransdorfové, k zavedení AI modelu Copilot pro soudce. Tento model je již v režimu neohrožující data soudů využíván soudci. Například já osobně jsem si vytvořil agenta, který mi každý den zasílá shrnutí rozhodnutí Nejvyššího soudu a Evropského soudního dvora v oblasti práva, na kterou se specializuji. Předpokladem je samozřejmě dostupnost těchto rozhodnutí na webu. V těchto agentech je obrovský potenciál k ulehčení a zkvalitnění práci soudce.
Další možností využití AI je nepochybně automatizace administrativních úkonů soudu. Je nezbytně nutné, aby výzvu na zaplacení soudního poplatku nebo odstranění vad podání zpracovával soudce nebo jeho asistent? Není možné, aby agent na to připravený zkontroloval obsah podání a podle již dnes zcela jasně nastavených pravidel, tak jak jsou popsána např. v občanském soudním řádu, zpracoval a poslal výzvu na odstranění vad podání nebo zaplacení soudního poplatku? Chceme na tyto jednoduché, ve své podstatě administrativní úkoly najímat další zaměstnance? Myslím, že ne. Prostředky takto ušetřené je možné využít jinak, efektivněji, například pro vyšší ocenění již existujících vedoucích kanceláří a vyšších soudních úředníků, jejichž plat, který jim nabízí stát, dlouhodobě v konkurenci jiných profesí neobstojí.
Na co si je třeba dát pozor? Máme nastavena dostatečně kvalitní pravidla užití? AI jde kupředu mílovými kroky a legislativa bude vždy o několik kroků za ní…
Jak jsem již zmínil, hlavním problémem není legislativa, ta bude jistě, tak jako již od starého Říma, vývoj ve společnosti jen dohánět. Problémem je podle mne zejména etický a sociologický rozměr aplikace AI v justici. Budou občané věřit rozhodnutí „stroje“? Nebo budou vyžadovat stále „živého“ soudce? Dnes převažuje tendence, že omezením vstupu lidského prvku se omezí možnost chyby či korupce. Tento jednostranný názor je však velice zjednodušený a vychází jen z naší zkušenosti, ovlivněné kauzami politické reprezentace i soudců. Komplexnější pohled je takový, že není nutné, aby o pokutách za rychlost rozhodoval člověk, pokud jen aplikuje „tabulku“, kde jsou dvě kritéria, a to rychlost a výše pokuty. Naopak v řízení trestním si rozhodování jen AI představit neumím. Vždy to bude soudce, který zhodnotí vlastní zkušenost s obžalovaným, jeho věrohodnost, možnost nápravy a podobně.
Jak předejít všem nástrahám, které už nám byly dříve naznačeny v mnoha filmech, s nadsázkou tedy například „jak se vyhnout Matrixu“?
Těžko, můžeme se však o to pokusit. Nic jiného nám nezbývá. Technologie vždy předbíhala právo a u AI to bude ještě rychlejší a bolestivější. Až bude první člověk odsouzen na základě deepfakes vyrobenou AI, a později se na to přijde, začne veliká celospolečenská diskuse. Již dnes je to vidět na rozdílném přístupu USA a EU k problematice AI. USA navenek razí názor, že bez absolutní volnosti není možný další vývoj AI, uvnitř však již je v Kongresu projednáván návrh zákona regulující AI a její dopady. Takže ten tlak na volnost při tvorbě AI modelů je spíše ze strany korporací, nikoliv administrativy. V EU již máme počáteční úpravu AI, dokonce na úrovni celé EU v podobě AI Act. Zcela však absentují procesní nástroje, pokud jde o justici.
Bez etiky a morálky není právo. AI je odrazem nás samotných, co do ní vložíme, s tím bude pracovat. Už dnes víme, že je AI schopna halucinovat… nedá se jí tedy bezmezně věřit. A bez etiky a morálky by se AI snadno mohla vymknout kontrole. A právě etika a morálka je v dnešním světě ve velkém ohrožení. Jak posílit tyto hodnoty, aby se nám nevytratily z našeho vnímání světa?
Právo jde ruku v ruce s morálkou. Kulhá-li morálka, vbrzku začne kulhat i právo. Proto dnes sledujeme snahy o znevěrohodnění jakýchkoliv zásad a morálních principů, včetně těch, které jsou zcela zásadní, např. práva a povinnosti bránit svůj stát a jeho občany. Převládá názor, že vše je jaksi „relativní“, včetně právních předpisů a jejich uplatňování. Nesmíme však těmto dojmům podlehnout, ani pokud jde o aplikaci umělé inteligence. Pokud budeme akceptovat a dodržovat běžná lidská pravidla chování, takříkajíc „desatero“, nic zásadního společnosti nehrozí. A to ani pokud jde o AI. Využije-li justice horečný rozvoj AI k tomu, aby AI fakticky nahradila soudce, bez další samoregulace, bude to jistě problém. Nebude možné totiž poznat, zda rozhodnutí napsala pro soudce AI, aniž by výsledek zkontroloval, nebo soudce.
Dokáže se nejen justice, ale celkově společnost, která dnes bohužel příliš snadno podléhá dezinformacím, bránit falešným důkazům, které může vytvářet i umělá inteligence?
Ano dokáže. Již dnes dokážeme, byť extrémně složitě, odhalit podvodná jednání při provádění dokazování. Běžně zkoumáme pravost podpisu, stáří listiny. V éře AI nám však jistě přibude vrásek na čele. Podvody s důkazy budou více technicky i organizačně sofistikované, fakticky je bude umět odhalit zase jen umělá inteligence. Proto je již nyní nutná procesní úprava, která povede strany sporu k obezřetnosti při předkládání takovýchto „upravených“ důkazů soudu. Již dnes v mnoha státech existují ustanovení procesních předpisů, která nařizují stranám sporu povinně uvést informaci, že důkaz byl „ovlivněn“ modelem umělé inteligence. Pokud tak neučiní, má se za to, že tento důkaz svědčí v jejich neprospěch. Je to sice jen takový zdvižený prst, ale pro začátek jistě dostačující. Je totiž nutné si uvědomit, že ne každý zásah umělé inteligence do důkazu je negativní. Dnes již existují AI nástroje, které umí vylepšit neostrý snímek, tak aby byl čitelný, umí doplnit část zvukového záznamu apod. Všechny tyto nástroje mohou sloužit k hledání spravedlnosti, nikoliv jen k zastření pravdy.
Je potřeba, aby nejen soudci, ale i ostatní zástupci justice, procházeli školením v AI? Aby dokázali odlišit pravdu od deepfakes? Počítá se s tím?
Určitě. Tato vzdělávací činnost je jedním z cílů Centra, a proto jsme i navázali spolupráci s Justiční akademií. Paní ředitelka Ludmila Vodáková se již delší dobu aktivně zabývá problematikou AI a úvodní školení soudců již probíhají. My počítáme zejména se školením řešícími nejenom otázky technického využití AI, ale i otázky etické. Zde velkou roli sehrává pan předseda Nejvyššího soudu Petr Angyalossy, který se dlouhodobě věnuje otázkám etickým, a proto je i členem našeho poradního týmu.
Často se hovoří také o právu na „živého soudce“, nikde ale toto právo zatím není zakotveno, je to otázka, které je třeba se také věnovat?
Není, vliv techniky na justici vždy byl a bude. Jen jsme ho možná tak nevnímali. V poslední době byly zavedeny veřejné rejstříky, datové schránky a další. Zatím jsme však data jen digitalizovali, nyní přichází doba jejich aktivního zpracovávání, a to bez přičinění člověka. Proto bych nevylučoval ani rozhodování bez přímé účasti soudce, myšleno v jednací síni. V mnoha případech postačuje, aby výstup AI soudce jen zkontroloval a vydal např. platební rozkaz, což již nyní je věc v podstatě automatizovaná. Upínání se na skutečnost, že vše musí rozhodnout člověk, není správné, a do budoucna stejně neobstojí ani v justici, jelikož se to bude dít v mnoha jiných oborech. Již dnes např. rentgenové snímky kontroluje AI a připravuje diagnózu. A dělá to mnohem kvalitněji než lékař po dlouhé službě.
Jaké potíže při aplikaci umělé inteligence v justici mohou podle vás nastat?
Potíže jsou ve dvou aspektech, o kterých jsem se již zmiňoval. Etika a právo na spravedlnost, což je dnes doména výlučně lidská, a pak nebezpečí, že soudci sklouznou do situace, že budou věřit bezmezně novým nástrojům využívajícím AI. Odpověď na první otázku neznáme, jelikož v obyvatelstvu je pocit záruky spravedlnosti spojen možná více se strojem než konkrétní osobou soudce. U druhé otázky je to především nutnost zachování osobní integrity soudce a jeho pocit, že se musí dále vzdělávat i v oblasti AI. On musí být osobou, v jejíž rukou bude konečné rozhodnutí. K tomuto chceme přispět i činností Centra.
Rozpozná justice třeba falešné důkazy, které může AI vytvořit?
Nyní ne, v budoucnu nutně ano. Jen je potřeba vytvořit nástroje pro odhalení falešných důkazů, což není úloha justice, ale zejména státní administrativy, jelikož tento problém se týká všech oblastí rozhodování o právech a povinnostech občanů.
AI přináší i mnoho dalších otázek, například v problematice AI a duševního vlastnictví, kdy momentálně existují různé přístupy v pohledu na to, kdo je autorem výstupu AI, kdo a za jakých okolností může nárokovat autorská práva. Dále problém AI a ochrany osobních údajů, které by mohly být užity při tréninku AI i generování výstupů. Mohou hrozit pokuty a žaloby na náhradu újmy… Poskytovatel AI čelí odpovědnosti na všech možných frontách, může se dotýkat nekalé soutěže, regulace, trestního práva… A často ve sporech nelze určit primárního „viníka“, ve hře je poskytovatel, provozovatel a uživatel. Dokazování je komplikované…
Máte jistě pravdu. Otázek tohoto typu bude stále více a více. Musíme se však připravit na to, že je vyřešíme, žádnou jinou možnost nemáme. Nemůžeme, tak jako dnes, do modelů AI v nadšení z nové technologie, stále vkládat další a další data, včetně fotografií svých dětí z dovolené nebo podání účastníků řízení a pak se domáhat ochrany před využitím těchto dat modely AI. Tak to fungovat nebude. Ochrana osobních údajů a duševního vlastnictví bude primárně na vlastnících těchto dat nebo práv. Již dnes existuje možnost vyloučit použití autorského díla modely AI pro jejich strojové učení.
AI tedy přináší vedle pomoci i mnoho nástrah, zastavit ji však nelze, je třeba jít s dobou. Jak najít tu správnou vyváženost, aby nám AI v justici pomáhala a nebyla ohrožením?
Jsem optimista. Myslím, že vyváženost nám pomůže najít až čas. Tedy zejména to, že budeme připraveni na nástrahy, které s sebou přináší využití AI v justici, tyto nástrahy nebudeme ignorovat a zlehčovat, a přitom nebudeme modely AI zavrhovat jako nevhodné a nebezpečné pro justici. Tak tomu není, jelikož potenciál modelů AI pro justici je obrovský. Možná máme reálnou možnost přejít od justice rakouskouherského typu k justici moderní, a přitom pro její uživatele přívětivé, kdy třeba nebude soud v každém městě, ale budete se moci účastnit v klidu soudního jednání doma u počítače, bez stresu z cesty k soudu a třeba i samotného setkání s protistranou. Neskutečně tím stoupne i efektivita při plánování času pro advokáty.
Pokud se nám v Centru podaří, byť i drobně, k takovému výsledku vlastní prací přispět, budu spokojený.
Děkujeme za rozhovor!
Ivana Sýkorová
Foto: archiv R. Horáčka
Související články
- ÚS: Demokratický právní stát oprávněně trestá záměrné falšování historie – Svět práva
- Sněmovna podpořila úpravu pravidel předávání informací policií v rámci EU – Legislativa
- Osmdesátiletý Brit dostal pokutu za svého příliš kokrhajícího kohouta – Svět práva
- Městské státní zastupitelství v Praze bude od 13. ledna řídit D. Smetanová – Svět práva
- Nejvyšší správní soud by mohl posílit soudce a pedagog Jan Kratochvíl – Svět práva
- Tématem kulatého stolu pořádaného ČAK a UPP byla povinnost mlčenlivosti – Advokacie