Más de 79.600 casos penales quedaron atrapados en el bloqueo judicial en Inglaterra y Gales a finales de 2025. El retroceso judicial, de hecho, ha permanecido en niveles récord desde principios de 2023 y, según el Ministerio de Justicia, podría alcanzar los 100.000 casos para 2028. La corona Frente a los tribunales abrumados y los recursos limitados, los gobiernos están volviendo cada vez más a la inteligencia artificial como una posible solución. Desde la gestión de documentos y la investigación legal hasta los sistemas de archivo electrónico, chatbots y audiencias remotas, jueces, abogados y personal judicial están aprovechando herramientas de IA en su trabajo diario. Pero, la creciente presencia de la IA en los sistemas de justicia plantea preguntas urgentes. ¿Cómo debe ser regulada? ¿Hasta dónde puede ir la automatización sin socavar el debido proceso? y quién es responsable cuando las herramientas de IA influyen en los resultados judiciales? En respuesta al uso de la IA en los sistemas judiciales, la UNESCO lanzó su para el uso de sistemas de IA en los tribunales y tribunales en diciembre de 2025 en Atenas El Estado de Derecho y el Estado de Derecho en Londres. Guía Mesa redonda Las directrices establecen 15 principios destinados a garantizar que los sistemas de IA se desarrollen y utilicen de manera ética y con pleno respeto de los derechos humanos, cubriendo todo el ciclo de vida de las herramientas de IA utilizadas en los tribunales. Sin embargo, la preparación sigue siendo limitada. UNESCO 2024 Una encuesta sobre el uso de la IA en los sistemas judiciales encontró que sólo el 9% de los operadores judiciales encuestados habían recibido cualquier formación o información relacionada con la IA, a pesar de que el 44% ya había utilizado herramientas de IA en su trabajo. global Las herramientas de IA, experto científico de la Comisión del Consejo de Europa para la Eficiencia de la Justicia, pueden ayudar a crear partes mejor informadas, mejorar el acceso a la información judicial y contribuir a procedimientos más rápidos. Según Anca Radu Sin embargo, la precaución es ampliamente enfatizada.La Relatora Especial de la ONU Margaret Tiene “La IA no debe adoptarse sin evaluar cuidadosamente sus daños potenciales, cómo mitigar esos daños y si otras soluciones serían menos arriesgadas”. satélite Advertencia Satterthwaite ha subrayado que el derecho a un tribunal independiente e imparcial requiere el acceso a un juez humano, al igual que el derecho a un abogado humano. Los riesgos asociados con la IA en los sistemas judiciales son significativos: las herramientas de IA predispuestas pueden conducir a resultados discriminatorios, mientras que la toma de decisiones automatizada o asistida por IA a menudo se basa en sistemas opacos cuyo razonamiento no se puede explicar, socavando el derecho a un juicio justo. Este llamado problema de “caixa negra” es central para las preocupaciones del proceso debido. tal como lo define el editor de IBM Think Staff Matthew Kosinski, un El sistema de IA es aquel en el que las entradas y salidas son visibles, pero el proceso interno de toma de decisiones permanece inaccesible. La caja negra La independencia judicial también puede verse afectada por la influencia política o por actores privados involucrados en el diseño, la capacitación y la implementación de sistemas de IA. Los jueces podrían enfrentar la presión de seguir las recomendaciones generadas por la IA, incluso cuando conflicten con su propio razonamiento legal. En este contexto, del Consejo de Europa La Convención sobre la Inteligencia Artificial y los Derechos Humanos, la Democracia y el Estado de Derecho exige a los Estados que garanticen que los sistemas de IA no se utilicen de formas que socavan las instituciones democráticas, incluida la independencia judicial y el acceso a la justicia. Artículo 5 El marco Los casos recientes resaltan por qué estas salvaguardas son importantes. En junio de 2025, un juez de alto rango británico Dame Victoria Sharp, presidenta de la División del Banco del Rey, advirtió que las herramientas generativas de IA como ChatGPT "no son capaces de llevar a cabo una investigación legal fiable", y que el mal uso podría tener "implicaciones graves para la administración de la justicia y la confianza pública". Advertencia Sus comentarios siguieron el En Ayinde v London Borough of Haringey y Al-Haroun v Qatar National Bank, donde los abogados presentaron casos ficticios y citas generadas a través de herramientas de IA. Sentencia conjunta otro Aparecía en 2020, incluso antes del lanzamiento y masificación del ChatGPT de OpenAI, cuando el Tribunal Distrital de La Haya sentenció contra el uso por parte del gobierno holandés de la Indicación del Riesgo del Sistema (SyRI), un algoritmo diseñado para detectar el fraude social. Caso de Landmark como En ese momento, este fue “uno de los primeros juicios en el mundo abordando las implicaciones de los derechos humanos del uso de la inteligencia artificial en el sector público y las respectivas obligaciones de los Estados para garantizar la transparencia de los procesos de IA”. notas Amnistía Internacional Más tarde se confirmó que el sistema reforzó los prejuicios institucionales existentes que vinculan el crimen con la raza y la etnia y que operaba sin una supervisión humana significativa. informe El mensaje de estos desarrollos es claro: mientras que la IA puede ayudar a mejorar la eficiencia y reducir los obstáculos judiciales, su uso en los sistemas judiciales debe permanecer firmemente ancorado en el juicio humano y las normas de derechos humanos. A medida que los tribunales continúan experimentando con nuevas tecnologías, la regulación cuidadosa y la contención serán esenciales para garantizar que la justicia no solo sea más rápida, sino justa. María José Velez, periodista, 150sec Maria Jose Velez, Journalist, 150Sec 150 Secciones