El uso de algoritmos en los sistemas de justicia presenta riesgos para la presunción de inocencia y el debido proceso, mientras que el modelo europeo se enfoca en mantener la decisión humana en los tribunales. La especialista en inteligencia artificial (IA) analizó estos temas en un conversatorio organizado por la Fundación Global Democracia y Desarrollo (Funglode), donde se discutieron los beneficios y límites de estas herramientas en el ámbito judicial.
Durante su exposición titulada «La inteligencia artificial: entre la promesa de objetividad y el riesgo de deshumanización de la justicia», la jurista destacó el impacto de la IA en la reducción de la discrecionalidad judicial. Aunque la IA puede ofrecer mayor regularidad y previsibilidad en decisiones, su capacidad de operar sin emociones no garantiza que sea más imparcial que los jueces humanos.
Riesgos del uso de algoritmos en decisiones judiciales
La especialista identificó varios riesgos concretos asociados al uso de algoritmos en decisiones que afectan derechos fundamentales. El primero es la opacidad algorítmica, que debilita elementos esenciales del debido proceso, ya que las personas afectadas pueden no entender cómo se construyen las evaluaciones de riesgo.
Otro riesgo es la afectación del derecho de defensa, ya que si la lógica del algoritmo no puede ser discutida, la contradicción procesal se ve comprometida. Esto puede llevar a que las decisiones se basen en valoraciones técnicas que no pueden ser impugnadas de manera efectiva por los afectados.
La apariencia de neutralidad del algoritmo también es un riesgo, ya que las puntuaciones y probabilidades pueden dar una falsa impresión de objetividad. Además, existe el peligro de que las decisiones se basen en una lógica predictiva que desplace la presunción de inocencia, lo que podría llevar a un modelo de justicia que actúe sobre probabilidades en lugar de hechos probados.
Limitaciones en el uso de inteligencia artificial
La especialista enfatizó que los límites del uso de la IA deben trazarse donde comprometa las garantías procesales. La IA puede ser útil en tareas auxiliares como la gestión documental y el tratamiento de datos, pero no debe influir en la valoración de hechos o en decisiones que afecten derechos fundamentales.
En comparación con modelos de regulación en otras jurisdicciones, Brasil destaca por su gobernanza estructural, mientras que Europa, especialmente España, se enfoca en proteger la responsabilidad humana del juez. En este sentido, la IA debe ser una herramienta auxiliar y no un sustituto del juicio humano, ya que juzgar implica interpretar y asumir responsabilidades que no pueden ser delegadas a un algoritmo.
Por lo tanto, el papel de la IA en el sistema judicial debe ser el de un apoyo que mejore la eficiencia sin desplazar la responsabilidad del juez, asegurando que las decisiones sigan siendo humanas y revisables.
Te puede interesar...
