Více než 79.600 trestních případů bylo v Anglii a Walesu na konci roku 2025 uvízlo v soudní zátěži. Od počátku roku 2023 zůstává soudní zátěž na rekordních úrovních a podle ministerstva spravedlnosti by mohla do roku 2028 dosáhnout 100 000 případů. Koruna V souvislosti s přetíženými soudy a omezenými zdroji se vlády stále více obracejí na umělou inteligenci jako na možné řešení. Od správy dokumentů a právního výzkumu až po systémy e-filing, chatboty a vzdálená slyšení, soudci, právníci a soudní zaměstnanci využívají nástroje AI ve své každodenní práci. Ale rostoucí přítomnost umělé inteligence v justičních systémech vyvolává naléhavé otázky. Jak by měla být regulována? Jak daleko může automatizace jít, aniž by podkopala řádný proces? V reakci na používání umělé inteligence v soudních systémech zahájila UNESCO pro používání systémů umělé inteligence u soudů a tribunálů v prosinci 2025 v Aténách o AI a právním státě v Londýně. Směrnice Kulatý stůl Směrnice stanoví 15 zásad, jejichž cílem je zajistit, aby byly systémy umělé inteligence vyvíjeny a používány eticky a v plném souladu s lidskými právy a pokrývaly celý životní cyklus nástrojů umělé inteligence používaných v soudních řízeních. Připravenost však zůstává omezená. - UNESCO 2024 Studie o používání umělé inteligence v soudních systémech zjistila, že pouze 9% vyšetřovaných soudních pracovníků obdrželo jakékoli školení nebo informace týkající se umělé inteligence, a to navzdory tomu, že 44% již používá nástroje umělé inteligence ve své práci. Globální Nástroje umělé inteligence, vědeckého experta Komise Rady Evropy pro účinnost soudnictví, mohou pomoci vytvořit lépe informované strany, zlepšit přístup k soudním informacím a přispět k urychlení řízení. Podle Anky Radu Zvláštní zpravodajka OSN Margaret má AI by neměla být přijata „bez pečlivého posouzení jeho potenciálních škod, jak tyto škody zmírnit a zda by jiná řešení byla méně riziková“. Satelitní Upozornění Satterthwaite zdůraznil, že právo na nezávislý a nestranný soud vyžaduje přístup k lidskému soudci, stejně jako právo na obhájce vyžaduje lidského právníka. Rizika spojená s AI v soudních systémech jsou významná: zaujaté nástroje umělé inteligence mohou vést k diskriminačním výsledkům, zatímco automatizované nebo AI-podporované rozhodování se často spoléhá na neprůhledné systémy, jejichž uvažování nelze vysvětlit, což podkopává právo na spravedlivý proces. Tento takzvaný problém „černé skříňky“ je ústředním problémem procesních problémů. Jak definoval IBM Think Staff Editor Matthew Kosinski, Systém AI je ten, ve kterém jsou vstupy a výstupy viditelné, ale vnitřní rozhodovací proces zůstává nepřístupný. Černá krabička Nezávislost soudnictví může být také ovlivněna politickým vlivem nebo soukromými aktéry zapojenými do navrhování, školení a nasazení systémů umělé inteligence. Na tomto pozadí, z Rady Evropy Úmluva o umělé inteligenci a lidských právech, demokracii a právním státě vyžaduje, aby státy zajistily, že systémy umělé inteligence nejsou používány způsobem, který podkopává demokratické instituce, včetně nezávislosti soudnictví a přístupu ke spravedlnosti. Článek 5 Rámec Nedávné případy zdůrazňují, proč jsou tyto záruky důležité. V červnu 2025 vyšší britský soudce Dame Victoria Sharp, prezident divize King's Bench, varovala, že široce dostupné generativní nástroje AI jako ChatGPT „není schopny provádět spolehlivý právní výzkum“ a že zneužití by mohlo mít „vážné důsledky pro správu spravedlnosti a důvěru veřejnosti“. Upozornění Její komentáře následovaly v Ayinde v Londýně Borough of Haringey a Al-Haroun v Qatar National Bank, kde právníci předložili fiktivní případy a citace generované prostřednictvím AI nástrojů. Společné rozhodnutí Další Vznikla v roce 2020, ještě před spuštěním a masivizací OpenAI ChatGPT, kdy okresní soud v Haagu rozhodl proti použití nizozemské vlády Systémové indikace rizika (SyRI), algoritmu určeného k detekci podvodů v oblasti sociální péče. Případ Landmark jako V té době se jednalo o „jeden z prvních rozsudků na světě, který se zabýval lidskoprávními důsledky používání umělé inteligence ve veřejném sektoru a příslušnými povinnostmi států zajistit transparentnost procesů umělé inteligence“. poznámka Mezinárodní Amnesty Později bylo potvrzeno, že systém posiloval stávající institucionální předsudky spojující zločin s rasou a etnicitou a fungoval bez smysluplného lidského dohledu. Zpráva Poselství z těchto vývojů je jasné: zatímco umělá inteligence může pomoci zlepšit efektivitu a snížit soudní zátěž, její použití v soudních systémech musí zůstat pevně zakotveno v lidském úsudku a normách v oblasti lidských práv. Vzhledem k tomu, že soudy nadále experimentují s novými technologiemi, bude nezbytná pečlivá regulace a zdrženlivost, aby se zajistilo, že spravedlnost bude nejen rychlejší, ale spravedlivější. Maria Jose Velez, novinářka, 150Sec Maria Jose Velez, Journalist, 150Sec 150 sek