Sin haber rendido la protesta de ley, un algoritmo sentenció a un hombre por el delito de robo en la provincia de Chubut en Argentina. Un juez usó inteligencia artificial para resolver un caso y lo cacharon. Como cualquier estudiante que entrega un trabajo escolar sin revisarlo, en la sentencia podía leerse: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”. Un error que en una evaluación escolar implicaría reprobar la materia, en el caso del juez argentino significó que se revocara una condena, que tenga que reponerse un juicio y que le inicien un procedimiento disciplinario.
Fue una frase de la conversación entre el juez y la máquina la que lo delató. El juez no releyó cuidadosamente los resultados generados; sin ese error, es posible que no se hubiese descubierto que había empleado la inteligencia artificial para conocer y resolver el caso.
Un tribunal superior anuló la decisión del juez-máquina debido a que no se pudo conocer el prompt o instrucción que dio a la inteligencia artificial (además de no saberse cuál de todas las herramientas utilizó) porque no es posible realizar la trazabilidad de su “razonamiento”. Es decir, no puede saberse cómo fue que el juez (real) llegó a la decisión de condenar al imputado porque no se pudo distinguir su criterio personal del texto generado por la inteligencia artificial.
La razón para revocar la resolución fue que no se cumplió con el debido proceso que incluye el derecho de la persona acusada a ser oída por un juez o tribunal competente. Aquí, quien conoció del caso fue un algoritmo y no el juez penal que se supone está preparado para estudiarlo, hacer las valoraciones y ponderaciones correspondientes y llegar a su veredicto. En la resolución no se desconoce ni condena el uso de la herramienta, sino que se exige su uso adecuado.
La decisión del tribunal revisor destaca la importancia de la transparencia en el uso de estas herramientas. La sentencia no reprocha el avance tecnológico, sino que exige que se transparente su uso y, con ello, que se pueda distinguir entre lo que fue un auxilio en la redacción de una sentencia de la decisión que debe ser exclusiva de la persona juzgadora.
Dejar una decisión judicial a un algoritmo sería regresar a los tiempos en que los jueces debían ser solo la boca de la ley. En los juicios, nuestra inteligencia natural ha entendido, por siglos, que el conocimiento de un caso no sólo exige un simple silogismo a partir de los supuestos normativos, sino que requiere entender contextos, motivos y del valor de la experiencia para, así, poder decidir con responsabilidad y transparencia sobre los derechos de alguien más.
Este caso sucedió en Argentina, pero muchos jueces de todo el mundo y tal vez más, los secretarios proyectistas, podrán fácilmente caer en la tentación de usar la inteligencia artificial para, aparentemente, simplificar su trabajo, aunque con ello mermen los derechos de los justiciables.
En las escuelas ya se están tomando medidas para determinar qué hacer con los estudiantes o maestros que hagan uso indebido de la inteligencia artificial. ¿Qué van a hacer las instancias de supervisión del trabajo de los jueces con la detección de su uso? La IA ya está aquí y puede ser sin duda una aliada en ciertas acciones en el ámbito de la administración de justicia, pero, al menos por ahora, no puede sustituir al juez de carne y hueso.
Catedrática de la UNAM @leticia_ Bonifaz