Более 79 600 уголовных дел застряли в суде в Англии и Уэльсе к концу 2025 года. На самом деле судебные отсталости остались на рекордных уровнях с начала 2023 года и, по данным Министерства юстиции, к 2028 году могут достичь 100 000 дел. корона Столкнувшись с переполненными судами и ограниченными ресурсами, правительства все чаще обращаются к искусственному интеллекту как возможному решению. От управления документами и юридических исследований до систем электронных файлов, чат-ботов и удаленных слушаний судьи, юристы и сотрудники судов используют инструменты ИИ в своей повседневной работе. Но растущее присутствие ИИ в системах правосудия вызывает неотложные вопросы.Как его следует регулировать?Как далеко может идти автоматизация, не подрывая надлежащий процесс?И кто несет ответственность, когда инструменты ИИ влияют на судебные результаты? В ответ на использование ИИ в судебных системах ЮНЕСКО запустила свою для использования систем ИИ в судах и судах в декабре 2025 года в Афинах Об ИИ и верховенстве права в Лондоне. Руководство Круглый стол В руководящих принципах изложены 15 принципов, направленных на то, чтобы системы ИИ разрабатывались и использовались этически и с полным уважением к правам человека, охватывая весь жизненный цикл инструментов ИИ, используемых в судах. Тем не менее, готовность остается ограниченной. ЮНЕСКО 2024 Исследование по использованию ИИ в судебных системах показало, что только 9% опрошенных судебных операторов получили обучение или информацию, связанную с ИИ, несмотря на то, что 44% уже использовали инструменты ИИ в своей работе. Глобальный Научный эксперт Комиссии Совета Европы по эффективности правосудия, инструменты ИИ могут помочь создать более информированные стороны, улучшить доступ к судебной информации и способствовать ускорению процедур. По словам Анки Раду Тем не менее, осторожность широко подчеркивается.Специальный докладчик ООН Маргарет Есть ИИ не следует принимать «без тщательной оценки его потенциального вреда, способа смягчения этого вреда и того, будут ли другие решения менее рискованными». Саттерхвайт Предупреждают Satterthwaite подчеркнула, что право на независимый и беспристрастный суд требует доступа к человеческому судье, так же как право на адвоката требует человеческого адвоката. Риски, связанные с ИИ в судебных системах, значительны: предвзятые инструменты ИИ могут привести к дискриминационным результатам, в то время как автоматизированное или поддерживаемое ИИ принятие решений часто опирается на непрозрачные системы, рассуждения которых не могут быть объяснены, подрывая право на справедливый судебный процесс. Эта так называемая проблема «черного ящика» является центральной для проблем надлежащего процесса.Как определяет редактор IBM Think Staff Мэтью Косинский, Система ИИ - это такая, в которой входы и выходы видны, но внутренний процесс принятия решений остается недоступным. Черная коробка Независимость судов также может быть затронута политическим влиянием или частными субъектами, участвующими в проектировании, обучении и развертывании систем ИИ. Судьи могут столкнуться с давлением, чтобы следовать рекомендациям, генерируемым ИИ, даже когда они противоречат их собственным юридическим соображениям. На этом фоне, из Совета Европы Конвенция о искусственном интеллекте и правах человека, демократии и верховенстве закона требует от государств гарантировать, что системы ИИ не используются таким образом, который подрывает демократические институты, включая независимость судебной власти и доступ к правосудию. Статья 5 Рамочная Последние случаи подчеркивают, почему эти гарантии важны. В июне 2025 года старший судья Великобритании Дама Виктория Шарп, президент King’s Bench Division, предупредила, что широко доступные генеративные инструменты ИИ, такие как ChatGPT, «не способны проводить надежные юридические исследования», и что злоупотребление может иметь «серьезные последствия для администрирования правосудия и доверия общественности». Предупреждают Его комментарии последовали за в Ayinde v London Borough of Haringey и Al-Haroun v Qatar National Bank, где адвокаты подали фиктивные дела и цитаты, генерируемые с помощью инструментов ИИ. Совместное решение Другой Это произошло в 2020 году, еще до запуска и массификации ChatGPT OpenAI, когда районный суд Гааги вынес решение против использования голландским правительством Системного указания риска (SyRI), алгоритма, предназначенного для обнаружения мошенничества в сфере социального обеспечения. Landmark случай как В то время это было «одним из первых суждений в мире, касающихся последствий для прав человека использования искусственного интеллекта в государственном секторе и соответствующих обязательств государств по обеспечению прозрачности процессов ИИ». Замечание Международная амнистия Позже было подтверждено, что система усиливала существующие институциональные предрассудки, связывающие преступность с расой и этнической принадлежностью, и работала без значимого человеческого надзора. доклад Послание от этих событий ясно: хотя ИИ может помочь повысить эффективность и уменьшить задержки в судах, его использование в судебных системах должно оставаться прочно закрепленным в человеческом суждении и стандартах в области прав человека. Поскольку суды продолжают экспериментировать с новыми технологиями, тщательное регулирование и сдерживание будут необходимы для обеспечения того, чтобы правосудие было не только более быстрым, но и справедливым. Мария Хосе Велес, журналист, 150сек Maria Jose Velez, Journalist, 150Sec 150 сек