La inteligencia artificial (IA) es un campo de la informática que se enfoca en crear sistemas que puedan realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el razonamiento y la percepción.
La integración de IA a los sistemas judiciales está revolucionando el mundo, y el ámbito del Derecho no es una excepción. En este artículo, analizamos la implementación de la Inteligencia Artificial en el sistema judicial argentino, los avances logrados hasta el momento y los desafíos que aún quedan por delante.
De acuerdo al análisis cuantitativo liderado por el Centro de Estudios Nacional de Inteligencia Artificial, una iniciativa del gobierno de Chile que contó con información suministrada por distintos organismos internacionales como la OCDE, la CEPAL, UNESCO así como fuentes públicas y privadas de cada uno de los países de la región, la Argentina ocupa la principal posición en variables vinculadas al fomento público de la IA, la gobernanza del proceso y la conformación de una nueva institucionalidad frente a los cambios que impone la irrupción de esta nueva revolución tecnológica.
El liderazgo de Argentina en impulsar el uso de Inteligencia Artificial desde el gobierno a través de la reciente creación del programa de Inteligencia Artificial del Ministerio de Justicia de La Nación crea un ecosistema favorable para el desarrollo de sectores de la Economía del Conocimiento como el desarrollo de software, la biotecnología y la industria financiera.
Tomando en cuenta las iniciativas que surgen desde centros de investigación académica como el IALAB de la Facultad de Derecho de La UBA y Según los últimos datos oficiales, nuestro país logró exportaciones por USD 7.834 millones en 2022 -marcando un récord para el país- con un 21,1% de crecimiento contrastado con el año 2021.
Principales problemas y desafíos de la implementación de la IA en el Sistema Judicial Argentino
Con esos datos a la vista, tomando como factor que el sistema legal es uno de los ejes rectores del estado de derecho, La implementación de la Inteligencia Artificial (IA) en el sistema judicial presenta varios desafíos éticos.
La implementación de la Inteligencia Artificial (IA) en el sistema judicial presenta varios desafíos éticos. Según la “Carta ética europea sobre el uso de la inteligencia artificial” adoptada por la Comisión Europea para la Eficiencia de la Justicia (CEPEJ) en 2018, estos desafíos se pueden clasificar en tres categorías:
- Usos alentados: Estos incluyen técnicas de machine learning (entrenamiento de aprendizaje del contexto y datos de las IA) para mejorar la escritura de sentencias y complementar búsquedas de fuentes, creación de chatbots para brindar información legal básica de manera accesible, generación de plantillas en línea de documentos legales para facilitar el acceso, aumentar interoperabilidad y acelerar tiempos de procesamiento, y aplicación de técnicas de IA y ciencia de datos para analizar la actividad judicial, elaborar indicadores y hacer evaluaciones.
- Usos que requieren precauciones metodológicas: Estos incluyen la elaboración de parámetros en litigios civiles, apoyo a medidas alternativas de resolución de casos civiles a través de herramientas de “justicia predictiva” que no son imparciales y confiables y no deben ser la única base para la toma de decisiones, resolución de disputas en línea (sin intervención de personas), y uso de algoritmos en la investigación criminal para identificar dónde están cometiéndose delitos.
- Usos desalentados o potencialmente peligrosos desde la ética : Estos incluyen el perfilado de jueces o la predicción de decisiones judiciales, y uso de algoritmos en asuntos criminales con el fin de perfilar personas, criticados debido a los resultados erróneos y discriminatorios.
Avances en la implementación de Sistemas Informáticos en la Justicia
Uno de los primeros centros de investigación del país en materia de Inteligencia Artificial y Derecho resulta ser El Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la UBA (UBA – IALAB) está a la vanguardia de la innovación tecnológica en la justicia en América Latina. Sus desarrollos son reconocidos y respaldados por organizaciones internacionales como el BID, la ONU, la OCDE y el MIT.
El UBA – IALAB ha desarrollado varios sistemas informáticos que se aplican en la justicia.
Casos de implementación en curso en Latinoamérica de Sistemas Informáticos con IA en la Justicia
- Prometea es el primer sistema judicial predictivo de Hispanoamérica, creado en colaboración con el Ministerio Público Fiscal porteño. Se utiliza en el fuero laboral para automatizar la homologación de acuerdos entre empleador y empleado en cualquier instancia del proceso judicial.
- PretorIA fue creado para la Corte Constitucional de Colombia. Es notable porque es el único caso en el mundo en que el más alto organismo judicial de una Nación adopta un sistema inteligente para agilizar las decisiones en temas como tutelas, es decir, amparos por subsidios a la salud en los que el tiempo para decidir, a veces, resulta vital.
- Tucuy Ricuy es el sistema de IA que se pondrá en marcha en Perú a fines del primer trimestre de este año, permitirá dictar medidas de protección inmediata en casos de violencia de género. Una de sus particularidades es que tiene 6 tipos de IA diferentes y conecta el sistema judicial con las más de 50 comisarías de la mujer de todo el país.
Por su parte, Brasil ha logrado avances significativos en la incorporación de la Inteligencia Artificial (IA) en su sistema judicial. Un estudio realizado por ExperiencIA, una iniciativa del Banco de Desarrollo de América Latina (CAF), reveló que el número de proyectos de IA en el Poder Judicial de Brasil experimentó un aumento del 171% en 2022, pasando de 41 proyectos el año anterior a 111 y que su implementación ha logrado reducir el tiempo en los procesos judiciales entre un 25% y un 50%.
Un ejemplo es Synapses, un sistema de IA desarrollado por analistas del Tribunal de Justicia de Rondônia. Synapses se centra en la automatización de documentos, la predicción, sugerencia o detección de casos prioritarios y en la interoperabilidad de datos entre diferentes organizaciones.
Actualidad del caso Argentino y avances en la implementación de Sistemas Informáticos en la Justicia
A pesar de las implementaciones y avances en Latinoamérica, es sorprendente que la Corte Suprema de Justicia de Argentina no haya mostrado interés en estos sistemas, algunos de ellos desarrollados en la universidad número uno de Iberoamérica y cuyos desarrollos cuentan con el respaldo de la comunidad internacional de mayor experticia respecto de la implementación de IA en la Justicia.
El Gobierno Nacional creó por Resolución 111/2024, publicada en el Boletín Oficial dentro de la orbita del MINJUS el denominado “Programa Nacional Integral de Inteligencia Artificial en la Justicia”, con el objetivo de “mejorar los procedimientos administrativos y los procesos judiciales”.
El Programa funcionará bajo la órbita de la Unidad Gabinete de Asesores del Ministerio de Justicia, y contará con un coordinador -Diego Carlos Guerendiain- y un Comité Consultivo, con especialistas sobre la temática que se desempeñarán de manera ad honorem.
¿Cuáles son los desafíos éticos de la IA en el sistema judicial?
El uso de la Inteligencia Artificial (IA) en la justicia tiene varias implicancias éticas importantes que trazan los ejes de discusión a tener en cuenta respecto de la programación de sistemas que implementen IA para sus rutinas diarias, a saber:
- Equidad y Sesgo: Los algoritmos de IA pueden heredar sesgos de los datos con los que se entrenan, lo que puede llevar a decisiones injustas o discriminatorias.
- Transparencia y justificación lógica: A menudo, los sistemas de IA son cajas negras, (opacos, es decir que no se sabe cómo fueron programados bajo el pretexto de lograr seguridad del sistema o programa diseñado) lo que dificulta entender cómo se llega a una decisión. Esto plantea interrogantes sobre la responsabilidad y la transparencia pero a la vez puede generar decisiones absurdas o alucinaciones del sistema en la decisión producida.
- Privacidad y Datos Sensibles: La recopilación y el uso de datos personales en aplicaciones de IA en la justicia deben manejarse con cuidado para proteger la privacidad de las personas.
- Responsabilidad Legal: La determinación de quién es responsable en caso de un error o un problema ético relacionado con la IA es un desafío importante, estribando la responsabilidad entre el programador y el aportante de la información o datos que conforman la decisión o resultados del sistema. En relación a lo expresado, para mitigar los sesgos y minimizar los riesgos de resultados desalentados o no deseados en la implementación de la Inteligencia Artificial (IA) considero posibles varias estrategias que se pueden utilizar:
- Definir los sesgos: Es necesario reconocer y definir los sesgos para poder combatirlos. Esto puede ser complicado, ya que los sesgos a menudo se basan en percepciones subjetivas. En esa lógica resulta posible determinarlos y armonizarlos normativamente con apoyo de las ciencias sociales (antropología, sociología, historia del derecho, criminología y economía social, entre otras ) aplicadas y combinadas mediante un enfoque transdiciplinario del contexto socio histórico y cultural de aplicación, que a su vez considere analizar y discriminar los datos según su sensibilidad en un contexto de aplicación cuya directriz resulte derivada en el análisis normativo de corte positivista constitucional y respetuoso de los derechos humanos.
- Recopilación de datos inclusivos: Los datos utilizados para entrenar los modelos de IA deben ser representativos de la diversidad de la población para evitar o disminuir posibles sesgos basados en datos sensibles de cada grupo étnico o cultural en una geografía determinada .
- Revisión y monitoreo continuo: Es importante realizar revisiones periódicas y monitorear continuamente los modelos de IA para detectar y corregir sesgos emergentes productos del complejo entramado de análisis e intercambio de información cuya inferencia lógica de no controlarse puede arrojar distópicos resultados cual ondas de agua al lanzar una piedra a un lago. Las auditorías independientes de los algoritmos pueden ayudar a identificar y corregir los sesgos siempre que estas no resulten automatizadas en su totalidad y dependan para su corrección de el factor humano en instancia final.
- Equipos de programación de IA transdiciplinarios: Tener un equipo diverso de desarrolladores puede ayudar a evitar sesgos inconscientes que podrían ser transferidos a la IA, aportando módulos de procesamiento con variables de análisis que contemplen información para un análisis de datos multicultural, interreligioso y plurinacional.
- Transparencia: Los algoritmos de IA deben ser transparentes para que los usuarios puedan entender cómo se toman las decisiones, desde la lógica de la cual seguridad no es opacidad, sino falta de información y seguridad para el usuario final y el destinatario de las decisiones que tomen las IA en especial aquellas que revisten la categoría de OSINT (open source intelligence network).
¿Hacia dónde está el norte en el uso de la Inteligencia Artificial en la Justicia?
La IA es una herramienta complementaria, pero siempre bajo supervisión y sin confiar ciegamente en sus resultados. La innovación, que en estructuras burocráticas complejas suele avanzar de abajo hacia arriba, amenaza el statu quo en varios sentidos.
Algunas de las estrategias antes mencionadas pueden ayudar a mejorar la equidad y la justicia en las decisiones tomadas por la IA evitando soluciones disociadas de la realidad o la aplicación de sesgos discriminatorios o estigmatizantes.
Dicho esto, es importante recordar que la IA es solo una herramienta y que la responsabilidad última de tomar decisiones justas y equitativas recae en las personas, y en los profesionales que las programan, entrenan, monitorean y utilizan quienes en definitiva deben formarse con valores éticos respetuosos del sistema normativo constitucional en el que se funda el estado de derecho contemplando los derechos humanos como norte funcional de análisis de cada decisión en forma objetiva y subjetiva.
A pesar de estos desafíos éticos, la Inteligencia Artificial ofrece oportunidades para mejorar la equidad y la eficiencia en la ética y la justicia. Puede ayudar a identificar y mitigar sesgos en las decisiones judiciales y éticas, permitiendo una mayor equidad. Además, puede automatizar tareas rutinarias, liberando tiempo para profesionales de la justicia y la ética para centrarse en asuntos más complejos, siempre que sea posible armonizar en análisis jurídico normativo con principios éticos en forma eficiente.
Referencias:
Centro Nacional de Inteligencia Artificial, Gobierno de Chile.
Fundar – elaboración propia sobre la base del Proyecto de Justicia Mundial (2022).
UBA – IALAB, Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la UBA.
Comisión Europea para la Eficiencia de la Justicia (CEPEJ), 2018.
Ministerio Público Fiscal porteño, 2017.