Daugiau nei 79,600 baudžiamųjų bylų buvo įstrigę teismų spąstuose Anglijoje ir Velse 2025 m. Pabaigoje. Tiesą sakant, teismų atotrūkis nuo 2023 m. pradžios išliko rekordiniame lygyje ir, pasak Teisingumo ministerijos, iki 2028 m. Gali pasiekti 100 000 bylų. Karūna Susidūrusios su perpildytais teismais ir ribotomis ištekliais, vyriausybės vis dažniau kreipiasi į dirbtinį intelektą kaip įmanomą sprendimą. Nuo dokumentų valdymo ir teisinių tyrimų iki elektroninių failų sistemų, pokalbių robotų ir nuotolinių posėdžių, teisėjai, teisininkai ir teismo darbuotojai savo kasdieniame darbe naudoja AI įrankius. Tačiau didėjantis AI buvimas teisingumo sistemose kelia neatidėliotinų klausimų.Kaip jis turėtų būti reguliuojamas?Kiek automatizavimas gali eiti nepažeidžiant tinkamo proceso?Ir kas yra atsakingas, kai AI įrankiai turi įtakos teismo rezultatams? Reaguodama į AI naudojimą teisminėse sistemose, UNESCO pradėjo savo veiklą. dėl AI sistemų naudojimo teismuose ir teismuose 2025 m. gruodžio mėn. Atėnuose Apie AI ir teisinę valstybę Londone. Gairės Apvalus stalas Gairėse išdėstyti 15 principų, kuriais siekiama užtikrinti, kad DI sistemos būtų kuriamos ir naudojamos etiškai ir visapusiškai gerbiant žmogaus teises, apimant visą teisme naudojamų DI įrankių gyvavimo ciklą. Nepaisant to, pasirengimas lieka ribotas. „UNESCO 2024“ Apklausa apie AI naudojimą teisminėse sistemose parodė, kad tik 9% apklaustų teismų operatorių gavo bet kokį su AI susijusį mokymą ar informaciją, nepaisant to, kad 44% jau naudojo AI įrankius savo darbe. Pasaulinė Europos Tarybos Teisingumo efektyvumo komisijos mokslinis ekspertas, AI įrankiai gali padėti sukurti geriau informuotas šalis, pagerinti prieigą prie teisminės informacijos ir prisidėti prie spartesnių procedūrų. Pasak Ankos Radu Jungtinių Tautų specialioji pranešėja Margaret turi AI neturėtų būti priimtas „be kruopštaus jo galimos žalos įvertinimo, kaip sušvelninti šią žalą ir ar kiti sprendimai būtų mažiau rizikingi“. Šaulys Įspėjo Satterthwaite pabrėžė, kad teisė į nepriklausomą ir nešališką teismą reikalauja galimybės kreiptis į žmogiškąjį teisėją, lygiai taip pat, kaip teisė į advokatą reikalauja žmogaus advokato. Rizika, susijusi su AI teisminėse sistemose, yra didelė: šališki AI įrankiai gali lemti diskriminuojančius rezultatus, o automatizuotas ar AI padedamas sprendimų priėmimas dažnai remiasi neaiškiomis sistemomis, kurių motyvacija negali būti paaiškinta, o tai kenkia teisei į teisingą bylos nagrinėjimą. Ši vadinamoji „juodoji dėžutė“ problema yra pagrindinis procesų klausimas, kaip apibrėžė „IBM Think Staff“ redaktorius Matthew Kosinski. AI sistema yra ta, kurioje įvesties ir išeities yra matomos, tačiau vidinis sprendimų priėmimo procesas lieka nepasiekiamas. Juodoji dėžė Teismų nepriklausomumą taip pat gali paveikti politinė įtaka arba privatūs veikėjai, dalyvaujantys projektuojant, mokant ir diegiant AI sistemas. Atsižvelgiant į šį fone, iš Europos Tarybos Konvencija dėl dirbtinio intelekto ir žmogaus teisių, demokratijos ir teisinės valstybės principo reikalauja, kad valstybės užtikrintų, jog DI sistemos nebūtų naudojamos taip, kad būtų pakenkta demokratinėms institucijoms, įskaitant teismų nepriklausomumą ir galimybę kreiptis į teismą. 5 straipsnis Pagrindų Pastarieji atvejai pabrėžia, kodėl šios apsaugos priemonės yra svarbios. 2025 m. birželio mėn. Didžiosios Britanijos vyriausiasis teisėjas Dame Victoria Sharp, King's Bench Division prezidentė, perspėjo, kad plačiai prieinamos generacinės AI priemonės, tokios kaip ChatGPT, „nėra pajėgios atlikti patikimų teisinių tyrimų“, ir kad piktnaudžiavimas gali turėti „rimtų pasekmių teisingumo administravimui ir visuomenės pasitikėjimui“. Įspėjo Jo pastabos sekė Ayinde prieš London Borough of Haringey ir Al-Haroun prieš Kataro nacionalinį banką, kur advokatai pateikė fiktyvius atvejus ir citatas, sukurtas per AI įrankius. Bendras sprendimas Kitos Tai įvyko 2020 metais, dar prieš „OpenAI“ „ChatGPT“ paleidimą ir masiškumą, kai Hagos apygardos teismas nusprendė prieš Nyderlandų vyriausybės naudojamą „System Risk Indication“ (SyRI), algoritmą, skirtą aptikti socialinės apsaugos sukčiavimą. Žemėlapio atvejis kaip Tuo metu tai buvo „vienas iš pirmųjų sprendimų pasaulyje, susijusių su žmogaus teisių padariniais, susijusiais su dirbtinio intelekto naudojimu viešajame sektoriuje, ir atitinkamais valstybių įsipareigojimais užtikrinti AI procesų skaidrumą“. pažymėjo Tarptautinė Amnesty Vėliau buvo patvirtinta, kad sistema sustiprino esamus institucinius šališkumus, susijusius su nusikalstamumu dėl rasės ir etninės priklausomybės, ir veikė be prasmingos žmogaus priežiūros. Pranešimas Šių pokyčių žinutė yra aiški: nors AI gali padėti pagerinti efektyvumą ir sumažinti teismo spragas, jo naudojimas teisminėse sistemose turi likti tvirtai įtvirtintas žmogaus sprendime ir žmogaus teisių standartuose. Kadangi teismai ir toliau eksperimentuoja su naujomis technologijomis, atsargus reguliavimas ir suvaržymas bus būtini siekiant užtikrinti, kad teisingumas būtų ne tik greitesnis, bet ir teisingas. Maria Jose Velez, žurnalistė, 150sec Maria Jose Velez, Journalist, 150Sec 150 sek.