El Tribunal de Disciplina anunció que comenzaría a aplicar encuestas a las personas usuarias del sistema de justicia como mecanismo para evaluar el desempeño de quienes juzgan, bajo la premisa, en apariencia incuestionable, de que escuchar la percepción ciudadana contribuye a mejorar la calidad institucional. La idea, en abstracto, es correcta. La evaluación siempre es deseable y la medición, cuando es seria, aporta información valiosa. El problema no está en la intención declarada, sino en el instrumento elegido y en la comprensión profundamente equivocada de lo que, en materia judicial, puede y debe medirse mediante percepción.

Basta revisar las preguntas que integran el cuestionario para advertir que no se trata de una encuesta de experiencia judicial, sino de un formulario que mezcla indebidamente planos distintos: la percepción del trato, la posible comisión de ilegalidades y la valoración técnica del desempeño jurisdiccional, como si se tratara de dimensiones equivalentes y susceptibles de medirse con el mismo recurso rudimentario.

Preguntar a una persona usuaria si “le pidieron dinero por su asunto” no constituye un ejercicio de evaluación, sino la banalización de un posible acto de corrupción que, de haber ocurrido, debe canalizarse por las vías formales de denuncia penal y administrativa que existen precisamente para esos casos. Convertir esa hipótesis en una pregunta genérica, anónima y desprovista de cualquier candado metodológico no fortalece la rendición de cuentas; la trivializa al diluirla en un instrumento que no tiene capacidad alguna para activar responsabilidades.

Del mismo modo, preguntar si “la sentencia se dictó de manera clara” después de que una de las partes perdió el juicio no mide claridad, sino inconformidad con el resultado. Confunde inevitablemente percepción con desenlace y convierte lo que debería ser un análisis sobre comunicación procesal en una medición contaminada por el sentido del fallo. Además, ¿qué ha de entenderse por “clara”? ¿Sin tecnicismos, con resumen ciudadano? Las posibilidades interpretativas son infinitas.

Aún más problemático es solicitar a la persona usuaria que valore si el magistrado se condujo “de manera eficiente”, trasladando a quien no cuenta con parámetros técnicos la evaluación de un concepto que ni siquiera los órganos especializados pueden medir sin recurrir a indicadores complejos sobre tiempos procesales, cargas de trabajo, etapas del procedimiento y naturaleza del asunto.

La encuesta revela una incomprensión de fondo sobre la naturaleza misma de la función judicial y sobre los límites de la medición por percepción. La justicia no puede evaluarse únicamente bajo lógicas de satisfacción del usuario, porque el resultado del proceso condiciona inevitablemente la respuesta y distorsiona cualquier intento serio de medir la experiencia de trato, escucha o claridad.

Existe, además, un error temporal que agrava el problema. Medir después del fallo, en materias donde necesariamente una parte quedará inconforme, garantiza que la encuesta registre frustración y no calidad del servicio judicial. No mide si la persona fue escuchada, si comprendió el proceso, si recibió información suficiente o si percibió que su asunto fue atendido con diligencia antes de la decisión. Mide, simplemente, si el resultado le fue favorable.

A este problema metodológico se suma otro igualmente delicado: la ausencia absoluta de fundamento y motivación para que este tipo de evaluación se pretenda aplicar de manera diferenciada entre personas juzgadoras electas y aquellas que aún no lo son. No existe justificación técnica, jurídica ni institucional que explique por qué unas deberían ser medidas con ciertos instrumentos y otras con mecanismos distintos, cuando la función que desempeñan es sustancialmente la misma.

Si la percepción ciudadana es valiosa, lo es respecto de todas las personas juzgadoras.

Lo mismo aplica para la evaluación técnica; es decir, tanto electos como no electos deberían ser evaluados tanto técnicamente como por su atención a la ciudadanía.

Lo contrario no constituye evaluación diferenciada: constituye trato diferenciado sin justificación.

El contexto en el que surge esta encuesta vuelve el asunto todavía más preocupante, porque coincide con un momento en el que se discute públicamente cómo deben evaluarse, supervisarse y filtrarse a quienes integran el Poder Judicial. Si este es el estándar metodológico con el que se pretende “medir” a las personas juzgadoras, el problema no es la existencia de la evaluación, sino la precariedad técnica con la que se está intentando diseñar.

Evaluar es un acto técnico. Exige comprender variables, sesgos, momentos adecuados para preguntar, límites de lo medible y, sobre todo, distinguir con claridad entre percepción ciudadana, responsabilidad disciplinaria y valoración jurisdiccional.

Aquí no hay nada de eso.

Y, sin embargo, existen ejemplos que demuestran que sí es posible hacerlo correctamente.

Desde hace un par de meses, el magistrado Juan Jaime González Varas implementó en su ponencia una encuesta anónima que parte de una premisa metodológicamente sensata: a toda persona que acude al tribunal donde labora le pregunta si fue escuchada por su ponencia, si comprendió las respuestas que le dieron, si la información proporcionada fue clara y qué puede mejorarse.

Es decir, mide lo único que puede medirse legítimamente mediante percepción: la experiencia de trato, claridad y respeto durante el proceso, antes de que el resultado distorsione la respuesta.

La diferencia entre ambos instrumentos no es menor. En un caso, se pretende evaluar con preguntas que no miden nada y que confunden planos distintos. En el otro, se mide con precisión aquello que sí es susceptible de valoración ciudadana.

La justicia exige rigor.

También, y quizá sobre todo, cuando se intenta medirla.

¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

dft

Comentarios