9 C
Buenos Aires
miércoles, junio 25, 2025

¿Podrá la IA arreglar los sistemas judiciales de América Latina?

Más Noticias

En los últimos años, América Latina ha sido testigo de un crecimiento significativo en el desarrollo y aplicación de tecnologías digitales en el ámbito jurídico. Los chatbots se han convertido en una de las herramientas emergentes más relevantes. No obstante, su implementación en los procesos de impartición de justicia plantea interrogantes fundamentales sobre su eficacia y efectividad, especialmente en contextos sociales, legales y culturales tan complejos como los que caracterizan a la región.

Gran parte de las inquietudes surgen del desequilibrio entre el uso cada vez más extendido de estas tecnologías, la falta de formación adecuada para su manejo y la ausencia de marcos regulatorios específicos en torno a la inteligencia artificial (IA).

Una encuesta global realizada el año pasado por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) reveló que el 44% de los operadores judiciales, incluidos jueces, fiscales y abogados, emplean herramientas de IA como ChatGPT en sus labores. Sin embargo, solo el 9% ha recibido capacitación o directrices institucionales para su uso. Estos datos evidencian una brecha preocupante que plantea serios desafíos éticos y legales.


IA

La IA ha demostrado su potencial como medio de denuncia y sensibilización social, pero también ha suscitado cuestionamientos éticos sobre su uso en el ámbito jurídico.


En el contexto latinoamericano, estas preocupaciones están estrechamente ligadas a la variedad de funciones que se pretende automatizar. Las soluciones existentes se pueden clasificar en dos grandes grupos: aquellas de uso institucional y las destinadas al público general.

En el ámbito institucional, según el informeUso estratégico de datos e inteligencia artificial en la Justicia’, del Banco de Desarrollo de América Latina (CAF), muchas de estas herramientas están orientadas a simplificar y optimizar el trabajo en sistemas judiciales que pueden recibir entre 100 y 2,000 casos diarios. Se han documentado desde sistemas sencillos que ayudan a gestionar bases de datos y automatizar documentos, hasta otros más sofisticados que predicen la resolución probable de un caso, detectan criterios jurídicos aplicables y reconocen situaciones de vulnerabilidad.

Chatbots legales al interior

Brasil es uno de los países más avanzados en la implementación de IA en su sistema judicial. Un estudio de 2021 reveló que 47 de los 91 tribunales federales y estatales del país ya utilizaban algún tipo de inteligencia artificial desde 2019. Entre sus desarrollos más destacados se encuentra ‘Victor’, un bot creado por el Tribunal Supremo Federal que examina miles de recursos de apelación para identificar aquellos con «repercusión general», es decir, con posible impacto social amplio, y que, por lo tanto, deben ser considerados para evaluación judicial.

Tradicionalmente, este análisis lo realizaban funcionarios judiciales utilizando criterios predefinidos. ‘Victor’, en cambio, aplica dichos criterios directamente al texto del recurso, seleccionando los casos con mayor coincidencia. Según su desarrollador, el sistema alcanza una precisión del 90.34% en la clasificación de estos recursos.

Argentina también se ha convertido en referente regional en la integración de la IA al sistema judicial. Destaca el caso de ‘Prometea’, un sistema desarrollado por el Ministerio Público Fiscal de la Ciudad Autónoma de Buenos Aires en colaboración con el Laboratorio de Innovación e Inteligencia Artificial de la Universidad de Buenos Aires. Este sistema automatiza tareas repetitivas como la redacción de resoluciones y la clasificación de expedientes, alcanzando una precisión del 96% en la detección de patrones y resolviendo casos en apenas 20 segundos.

Debido a su efectividad, ha sido adoptado en Colombia por la Corte Constitucional bajo el nombre de ‘Pretoria’. Esta versión ha optimizado la selección de acciones de tutela relacionadas con derechos fundamentales, acelerando los procesos judiciales y facilitando una gestión más eficiente de la carga de trabajo mediante la priorización automática de los casos más relevantes. Se estima que ha logrado reducir los tiempos de resolución en un 90%.


Javier Milei Argentina IA

La administración de Milei creó la Unidad de Inteligencia Artificial Aplicada a la Seguridad. Expertos advierten que podría violar los derechos básicos de los ciudadanos.


“Los resultados preliminares son muy positivos. En Buenos Aires, Prometea generó 1,000 decisiones en 26 días, cuando el promedio histórico era de 110. En Colombia, la Corte Constitucional redujo el tiempo para seleccionar tutelas urgentes de 96 días a solo dos minutos. Asimismo, varios tribunales brasileños informan que filtran hasta un 70% de los recursos manifiestamente improcedentes antes de que lleguen al juez. Esto se traduce en menores costos, mayor disponibilidad de jueces para asuntos complejos y, en consecuencia, una reducción en el rezago judicial”, señala Jersain Llamas Covarrubias, consultor jurídico especializado en tecnología.

A pesar de sus beneficios, los chatbots legales han despertado dudas respecto a la seguridad y fiabilidad de sus resultados. En el caso de ‘Prometea’, se ha identificado el riesgo de que los datos usados para entrenar al sistema contengan sesgos que afecten de forma negativa a determinados grupos sociales. Del mismo modo, la opacidad en el proceso de entrenamiento del sistema ‘Victor’ ha generado inquietudes en torno a la justicia e imparcialidad de las decisiones automatizadas que produce.

Este tipo de riesgos adquiere mayor relevancia en contextos como el latinoamericano, donde las desigualdades estructurales pueden reflejarse en los datos históricos empleados para entrenar modelos de IA.

Asesoría legal basada en IA al servicio de la ciudadanía

No obstante, las preocupaciones se matizan, hasta cierto punto, cuando se considera el potencial de estas herramientas desde el uso ciudadano, por ejemplo, para facilitar la comprensión de procesos judiciales y mejorar el acceso a la justicia entre grupos vulnerables.

Los modelos de lenguaje de código abierto desarrollados por empresas como Meta, OpenAI y Google han permitido crear herramientas que ayudan a la ciudadanía a comprender mejor los procedimientos legales y a agilizar distintos trámites en la región.

“El uso de estas tecnologías ha tenido un impacto notable en el acceso a la justicia para personas en situación de vulnerabilidad o con recursos limitados. Permiten brindar orientación legal básica de forma rápida, gratuita y permanente, lo cual facilita la consulta jurídica y reduce la saturación de las oficinas judiciales, contribuyendo a mitigar la desigualdad en el acceso a la justicia”, explica César Bonilla, comisionado ciudadano del Instituto de Transparencia, Acceso a la Información Pública, Protección de Datos Personales y Rendición de Cuentas de la Ciudad de México (INFO CDMX).

Un ejemplo destacable es ‘Sor Juana’, un asistente virtual presentado en fase beta por la Suprema Corte de Justicia de la Nación (SCJN) de México. Esta herramienta permite consultar semanalmente los proyectos de sentencia en proceso de votación. Desarrollada por la ponencia de la ministra Ana Margarita Ríos Farjat, su objetivo es “facilitar la revisión, comprensión y socialización del contenido”, según se detalla en su sitio web. ‘Sor Juana’ fue construida con código propio, pero emplea herramientas de terceros como Streamlit, Google y Pinecone.

“El mayor impacto de Sor Juana ha sido la disminución de las barreras de comprensión y acceso informativo. En menos de un año, la herramienta registró más de 15,500 usuarios únicos y procesó más de 34,000 consultas, muchas provenientes de personas ajenas al ámbito jurídico o académico”, señala Juan González, magistrado de circuito y coordinador del proyecto.

Sin internet, la justicia 4.0 no existe

Aun con estos avances, la brecha digital que persiste en la región limita los beneficios que los asistentes virtuales pueden ofrecer a la población.

“En América Latina, muchas de las comunidades que enfrentan mayores obstáculos para acceder a la justicia son también las que carecen de conexión a internet o cuentan con una conectividad insuficiente para usar herramientas que requieren gran transferencia de datos, como los chatbots”, indica Saúl López Noriega, investigador de la Escuela de Gobierno y Transformación Pública del Tecnológico de Monterrey.

La región de América Latina y el Caribe está profundamente marcada por disparidades digitales. Un informe del Foro Económico Mundial señala que solo dos tercios de los hogares tienen acceso a Internet, muy por debajo del promedio de la OCDE, que supera el 90%. En zonas rurales, las cifras son aún más bajas. Paradójicamente, estas son también las áreas donde la necesidad de servicios legales es más apremiante, lo que pone en evidencia una contradicción entre el potencial de la tecnología y su accesibilidad.

Otro desafío importante radica en la desconfianza ciudadana respecto al uso de IA en la administración de justicia. Según el estudioDemocracIA: Percepciones sobre inteligencia artificial y democracia en Argentina, Brasil, Colombia y México’, elaborado por la consultora Ipsos, el 54% de los encuestados a nivel global rechaza el uso de IA para tomar decisiones judiciales. En el caso latinoamericano, Argentina lidera la oposición con un 58%, seguida por México (53%), Brasil y Colombia (ambos con 52%).

La falta de marcos regulatorios adecuados en la región contribuye a esta resistencia. Aunque el uso de asistentes inteligentes en el ámbito legal se ha generalizado, aún no existen leyes claras que definan sus límites, garanticen la protección de datos personales ni eviten sesgos en los algoritmos.


IA elecciones

El informe “IA generativa y su influencia en las elecciones de México 2024” revela hallazgos como el uso limitado de deepfakes, el efecto Liar’s Dividend y casos de violencia política de género, mientras destaca la adopción temprana de IA en tribunales electorales.


El rol de las big tech

Como en otras partes del mundo, en América Latina la legislación avanza más lento que la tecnología. Si bien existen iniciativas regulatorias en curso, estas carecen de claridad y solidez. Llamas Covarrubias destaca que “Brasil fue el primero en responder con la Resolución 332/2020 del Consejo Nacional de Justicia, que exige a todo modelo de IA pasar pruebas ex ante de no discriminación, mantener trazabilidad de los datos de entrenamiento y ofrecer explicaciones auditables. Además, prohíbe expresamente su uso predictivo en materia penal sin control humano”. Agrega que Argentina, Colombia y México también están discutiendo lineamientos éticos similares, aunque todavía no se han formalizado.

Los especialistas coinciden en la necesidad de regular la IA judicial a nivel local y regional para asegurar su uso óptimo y responsable. Este proceso debe contemplar el papel de las grandes empresas tecnológicas como proveedoras de la infraestructura sobre la cual se construyen muchos de los asistentes virtuales legales en la región.

Bonilla subraya que estas compañías “juegan un papel crucial y deben operar con altos estándares de seguridad y ética cuando colaboren en la administración de justicia”.

Por lo general, los contratos entre instituciones judiciales y empresas privadas exigen la entrega del código fuente o al menos modelos explicables, con el fin de preservar la independencia judicial y proteger la confidencialidad de expedientes y otros datos sensibles, señala Llamas.

Sin embargo, corresponde a las autoridades públicas evaluar las capacidades de cada modelo según las tareas que se desean automatizar. Como advierte López Noriega, “no todo modelo desarrollado por una empresa privada sirve para cualquier sistema judicial. Desde la contratación hasta el entrenamiento y la implementación, debe haber corresponsabilidad entre el Estado y la empresa. La calidad de los datos y el diseño del modelo deben revisarse de forma conjunta”.

La evidencia sugiere que la adopción de IA en los sistemas judiciales latinoamericanos es inevitable. Pero los expertos coinciden en que esta transición debe darse con cautela, reflexión y bajo una regulación que asegure equidad, transparencia y seguridad.

Todo ello debe partir de una premisa esencial que Bonilla resume con claridad: “La IA es una herramienta que puede beneficiar a la sociedad y al sistema legal, pero nunca hay que olvidar que es solo eso: una herramienta, y nada más”.

Redacción

Fuente: Leer artículo original

Desde Vive multimedio digital de comunicación y webs de ciudades claves de Argentina y el mundo; difundimos y potenciamos autores y otros medios indistintos de comunicación. Asimismo generamos nuestras propias creaciones e investigaciones periodísticas para el servicio de los lectores.

Sugerimos leer la fuente y ampliar con el link de arriba para acceder al origen de la nota.

 

- Advertisement -spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Advertisement -spot_img

Te Puede Interesar...

Quedó detenida la niñera acusada de maltratar en Córdoba a un bebé de 7 meses: pedirán ampliar su imputación

La niñera que fue filmada por una cámara cuando maltrataba a un bebé de siete meses en una vivienda...
- Advertisement -spot_img

Más artículos como éste...

- Advertisement -spot_img