En la Odisea, dos monstruos mitológicos se turnaban para complicar el paso de los navegantes por un estrecho. Desde entonces, Escila y Caribdis son sinónimo de las tensiones que enfrentamos en nuestros tránsitos. El campo educativo tiene sus propios monstruos y estrechos, que en estos días se visibilizan a partir del debate público. ¿Cómo congeniamos propuestas pedagógicas situadas con evaluación estandarizada?
En los últimos años, la formación docente se ha caracterizado por promover las prácticas contextualizadas y el desarrollo de competencias interdisciplinarias, lo que redunda en docentes que promueven estas perspectivas de la enseñanza y el aprendizaje. Al mismo tiempo, se instalan cada vez con más fuerza los operativos de evaluación estandarizada que miden, a través de pruebas de opción múltiple, el desempeño de los estudiantes para construir índices de calidad que se incluyen en rankings internacionales. De allí nacen afirmaciones como “Argentina está en el puesto x en comprensión lectora”.
¿Qué grado de alineación existe entre la enseñanza y el aprendizaje situados, vinculados a la realidad de las personas y las comunidades, los diseños curriculares y los tests objetivos que infieren y ponderan prácticas de, por ejemplo, lectura, de igual modo en Argentina, Suecia y China? ¿Qué significa “saber leer” en cada uno de esos casos? ¿Es una sola cosa?
Como cualquier constructo estadístico, esas pruebas se fundan en una serie de ideas sobre el lenguaje, las matemáticas, las ciencias sociales. ¿Sabemos cuáles son? ¿Por qué se eligieron esas y no otras? Y en última instancia, ¿cómo se vinculan con las ideas en circulación en cada uno de los países donde se aplican? Sabemos que estas ideas no son universales ni únicas y que, además, cada contexto de enseñanza y aprendizaje enriquece y nutre cualquier propuesta.
Esta idea de deconstruir el constructo detrás de la estadística también podríamos aplicarla a los rankings que clasifican universidades en función de su calidad académica, medida principalmente a través de publicaciones de sus docentes e investigadores. ¿Qué información nos dan esos rankings sobre las condiciones de producción en nuestras universidades? ¿Son acaso las condiciones uniformes y universales? ¿Son iguales en todas las disciplinas?
Lo que tienen en común estas evaluaciones es que terminan constituyéndose en posiciones en un ranking. Y que los supuestos detrás de los dispositivos de evaluación y clasificación generan la ilusión de universalidad y comparabilidad. El problema, entonces, no son los instrumentos en sí, sino los presupuestos sobre los cuales se construyen. En un caso, se eluden las discusiones sobre los presupuestos teóricos que subyacen a la enseñanza y aprendizaje; en el otro, las diferencias disciplinares; y en ambos, las condiciones de producción específicas y coyunturales que nos indican que, claramente, no es lo mismo la comprensión lectora en todas las escuelas, así como tampoco las condiciones de publicación de los investigadores en cualquier disciplina y país.
En principio sería saludable comenzar por relativizar los resultados pensando críticamente desde qué perspectivas fueron construidos. Para ello es necesario generar espacios de crítica y reflexión en los que pensemos por qué y para qué evaluamos o nos evalúan. En este sentido es fundamental que los docentes nos demos el debate para evitar que Escila o Caribdis nos hagan naufragar.