Vairāk nekā 79.600 krimināllietas bija iestrēgušas tiesā Anglijā un Velsā 2025. gada beigās. Tiesu atpalicība faktiski ir saglabājusies rekorda līmenī kopš 2023. gada sākuma un saskaņā ar Tieslietu ministrijas datiem līdz 2028. gadam varētu sasniegt 100 000 lietu. Krona Saskaroties ar pārpildītām tiesām un ierobežotiem resursiem, valdības arvien vairāk vēršas pie mākslīgā intelekta kā iespējama risinājuma. No dokumentu pārvaldības un juridiskajiem pētījumiem līdz e-failu sistēmām, tērzēšanas robotiem un attālinātām tiesas sēdēm tiesneši, advokāti un tiesas darbinieki ikdienas darbā izmanto AI rīkus. Tomēr pieaugošā AI klātbūtne tiesu sistēmās rada steidzamus jautājumus.Kā tas būtu jāregulē?Cik tālu var iet automatizācija, neapdraudot pienācīgu procesu?Un kas ir atbildīgs, kad AI rīki ietekmē tiesu rezultātus? Atbildot uz AI izmantošanu tiesu sistēmās, UNESCO uzsāka savu par AI sistēmu izmantošanu tiesās un tribunālos 2025. gada decembrī Atēnās par AI un tiesiskumu Londonā. Vadlīnijas apaļais galds Pamatnostādnēs ir izklāstīti 15 principi, kuru mērķis ir nodrošināt, ka AI sistēmas tiek izstrādātas un izmantotas ētiski un pilnībā ievērojot cilvēktiesības, aptverot visu tiesās izmantoto AI rīku dzīves ciklu. Tomēr gatavība joprojām ir ierobežota. UNESCO 2024 Aptauja par AI izmantošanu tiesu sistēmās atklāja, ka tikai 9% aptaujāto tiesu darbinieku ir saņēmuši jebkādu apmācību vai informāciju, kas saistīta ar AI, lai gan 44% jau ir izmantojuši AI rīkus savā darbā. Globālā Eiropas Padomes Tieslietu efektivitātes komisijas zinātniskais eksperts, AI rīki var palīdzēt veidot labāk informētas puses, uzlabot piekļuvi tiesu informācijai un veicināt ātrākas procedūras. Saskaņā ar Anca Radu Joprojām tiek uzsvērta piesardzība. – ANO īpašā referente Margareta ir AI nevajadzētu pieņemt “bez rūpīgas novērtēšanas par tā potenciālo kaitējumu, kā mazināt šo kaitējumu un vai citi risinājumi būtu mazāk riskanti”. Saturs iegūts Brīdina Satterthwaite ir uzsvērusi, ka tiesības uz neatkarīgu un objektīvu tiesu prasa piekļuvi cilvēka tiesnesim, tāpat kā tiesības uz advokātu prasa cilvēka advokātu. Riski, kas saistīti ar mākslīgo intelektu tiesu sistēmās, ir ievērojami: ieinteresēti mākslīgā intelekta rīki var izraisīt diskriminējošus rezultātus, savukārt automatizēta vai ar mākslīgo intelektu palīdzēta lēmumu pieņemšana bieži paļaujas uz pārredzamām sistēmām, kuru pamatojumu nevar izskaidrot, apdraudot tiesības uz taisnīgu tiesu. Šī tā saucamā “melnās kastes” problēma ir centrāla saistībā ar pienācīgu procesu problēmām.Kā definējis IBM domāšanas darbinieku redaktors Matthew Kosinski, AI sistēma ir tāda, kurā ieejas un izejas ir redzamas, bet iekšējais lēmumu pieņemšanas process paliek nepieejams. Melnā kastīte Tiesu neatkarību var ietekmēt arī politiskā ietekme vai privātie dalībnieki, kas iesaistīti AI sistēmu projektēšanā, apmācībā un izvietošanā. Uz šī fona, no Eiropas Padomes Konvencija par mākslīgo intelektu un cilvēktiesībām, demokrātiju un tiesiskumu pieprasa, lai valstis nodrošinātu, ka mākslīgā intelekta sistēmas netiek izmantotas tādā veidā, kas apdraud demokrātiskas iestādes, tostarp tiesu neatkarību un piekļuvi tiesai. 5. pants Rāmis Pēdējie gadījumi uzsver, kāpēc šīs garantijas ir svarīgas. 2025. gada jūnijā Lielbritānijas Augstākā tiesa Lady Victoria Sharp, prezidents King's Bench Division, brīdināja, ka plaši pieejami ģeneratīvie AI rīki, piemēram, ChatGPT "nav spējīgi veikt uzticamus juridiskos pētījumus", un ka ļaunprātīgai izmantošanai var būt "nopietnas sekas tieslietu administrācijai un sabiedrības uzticībai". Brīdina Viņas komentārus sekoja Ayinde pret Londonas apgabalu Haringey un Al-Haroun pret Kataras Nacionālo banku, kur advokāti iesniedza fiktīvos gadījumus un citātus, kas radušies, izmantojot AI rīkus. Kopīgs spriedums Vēl Tas parādījās 2020. gadā, pat pirms OpenAI ChatGPT uzsākšanas un masveida izplatīšanas, kad Hāgas apgabaltiesa nolēma iebilst pret Nīderlandes valdības Sistēmas riska indikatora (SyRI) izmantošanu, algoritmu, kas paredzēts labklājības krāpšanas atklāšanai. Landmark gadījums kā Tajā laikā tas bija “viens no pirmajiem spriedumiem pasaulē, kas attiecās uz mākslīgā intelekta izmantošanas ietekmi uz cilvēktiesībām publiskajā sektorā un valstu attiecīgajām saistībām nodrošināt mākslīgā intelekta procesu pārredzamību.” atzīmēja Starptautiskā Amnesty vēlāk apstiprināja, ka sistēma pastiprināja esošās institucionālās aizspriedumus, kas saistīja noziedzību ar rasu un etnisko piederību, un darbojās bez jēgpilnas cilvēka uzraudzības. Ziņojums Šo notikumu vēstījums ir skaidrs: lai gan mākslīgais intelekts var palīdzēt uzlabot efektivitāti un samazināt tiesas trūkumus, tā izmantošanai tiesu sistēmās jāpaliek stingri piestiprinātai cilvēka spriedumam un cilvēktiesību standartiem. Tā kā tiesas turpina eksperimentēt ar jaunām tehnoloģijām, rūpīga regulēšana un ierobežošana būs būtiska, lai nodrošinātu, ka taisnīgums ir ne tikai ātrāks, bet arī taisnīgs. Maria Jose Velez, žurnāliste, 150sec Maria Jose Velez, Journalist, 150Sec 150 sek