Dosier
Las políticas de la comparación internacional. Un esbozo histórico de los cambios a lo largo del tiempo
Resumen: El auge de los bancos de datos internacionales en la economía digital exige una investigación sobre cómo contextos enormemente diferentes se hacen comparables. El método de formular las mismas preguntas o, según la terminología del siglo XXI, de utilizar el mismo conjunto de indicadores combinados con la información sobre variables del sistema, es clave para entender el despliegue de la comparación. El artículo examina la investigación sobre indicadores durante tres periodos de tiempo centrándose en sus actores influyentes: el Esquisse d’un ouvrage sur l’Éducation Comparée de Jullien de Paris (1817); las “encuestas” de Paul Monroe en Filipinas (1912-1914) y el trabajo de Isaac Kandel en torno a la comparabilidad y la Teoría de la Civilización; la colaboración del Instituto de Estadística de la UNESCO con otras partes interesadas en el desarrollo de indicadores educativos para los Objetivos de Desarrollo Sostenible 2030 (2015-2016). Estos tres periodos reflejan los cambios en el uso de los indicadores educativos: modernización / construcción nacional, colonización / desarrollo y estandarización / globalización. Jullien de Paris propuso preguntas estandarizadas para comparar características claves de los sistemas educativos, dio forma al método comparativo de investigación transnacional y contribuyó a justificar la necesidad de la comparación para extraer lecciones, tomar prestadas políticas o aprender de las “buenas prácticas” y las normas internacionales. Este enfoque mantiene su pertinencia en el contexto actual, marcado por el auge de los regímenes de cuantificación que promueven el uso de evidencia derivada de la investigación para la política y la planificación.
Palabras clave: Indicadores, Comparación, Regímenes de cuantificación, Estandarización, Sistemas educativos.
The politics of international comparison. A historical sketch of changes over time
Abstract: The rise of international databanks in the digital economy begs for an investigation into how vastly different contexts are made comparable. The method of asking the same questions or, catapulted into 21st century terminology, using the same set of indicators combined with reporting on system variables is key for understanding the making of comparability. The paper examines indicator research during three time periods by focusing on influential actors: Jullien de Paris’ Esquisse d’un ouvrage sur l’Éducation Comparée (1817); Paul Monroe’s ‘surveys’ in the Philippines (1912-1914) and Isaac Kandel’s work around comparability and Civilization Theory; and the collaboration of UNESCO Institute for Statistics with other stakeholders in developing education indicators for the 2030 Sustainable Development Goals (2015-2016). These three periods reflect shifts in the use of education indicators: modernization / nation-building, colonization / development, and standardization / globalization. Jullien de Paris proposed standardized questions to compare key features of educational systems; he shaped the comparative method of cross-national inquiry and helped justify the need for comparison for lesson-drawing, policy borrowing, or learning from “best practices” and international standards. This approach maintains its relevance in the current context, marked by the rise of quantification regimes that promote the use of research evidence for policy and planning.
Keywords: Indicators, Comparability, Quantification regimes, Standardization, Educational systems.
El auge de los regímenes de cuantificación y los intermediarios mundiales del conocimiento en la economía digital
Actualmente se están dando dos interesantes debates en las comunidades académicas de los estudios de política comparada y los de gobernanza global: (i) el uso de indicadores para establecer normas globales que se utilicen para supervisar desarrollos nacionales, y (ii) la proliferación de intermediarios globales del conocimiento que traducen, sintetizan y reformulan evidencias de investigación con fines de política y de planificación a escala nacional. En lugar de ver estos dos fenómenos como desarrollos separados, proponemos interpretar el crecimiento exponencial de intermediarios del conocimiento como consecuencia lógica de una sobreproducción de datos combinada con su infrautilización, generada por un número creciente de regímenes de cuantificación. Los cinco grandes organismos internacionales de educación han tomado la iniciativa de llevar adelante mediciones y seguimientos del “desarrollo” en una amplia gama de prioridades temáticas, nos referimos a la Alianza Mundial para la Educación [Global Partnership for Education], la Organización para la Cooperación y el Desarrollo Económicos (OCDE) [Organisation for Economic Cooperation and Development], la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) [United Nations Educational, Scientific and Cultural Organization], el Fondo de las Naciones Unidas para la Infancia (UNICEF) [United Nations International Children’s Emergency Fund] y el Banco Mundial. Una vez que el espacio de producción de conocimientos se abarrotó de organizaciones que publicaban sus datos y evidencias en plataformas digitales, el instrumento de política ligado a la producción y circulación de conocimientos perdió su brillo, y hubo que poner en marcha nuevos instrumentos para influir en la política y en la planificación nacionales. En una escala mayor, el rápido paso de una sociedad del conocimiento a una economía digital desencadenó una sobreproducción de conocimientos, datos o pruebas disponibles de manera libre en Internet. La secuencia importa. En primer lugar, los organismos internacionales detectaron la “gobernanza por cifras” o “gobernanza blanda por datos duros” (Niemann y Martens, 2018) como un instrumento eficaz de gobernanza mundial. Compitiendo entre sí por el impacto en las políticas nacionales, luego utilizaron (sus propios) datos para autorizar su asesoramiento en políticas –presentado como “buenas prácticas”- frente a los gobiernos. En otras palabras, los mismos organismos internacionales que se dedicaban a acumular datos centraron su atención en comunicar mejor su investigación en materia de políticas aplicadas a sus contrapartes a escala nacional. El paso de una producción de conocimientos a una producción de conocimientos con intermediación en materia de políticas se ha convertido en una necesidad en la era de la economía digital.
El establecimiento de un régimen de cuantificación ha sido relativamente bien estudiado. La metamorfosis del Banco Mundial, que ha pasado de ser una institución financiera de alcance global a un banco de conocimientos que presta dinero e ideas, ha sido observada por primera vez por Jones (2004) y Stone (2000) y posteriormente documentada con más detalle por Steiner-Khamsi (2009) y Zapp (2017, 2021), entre otros. Zapp presenta la magnitud del banco de conocimiento del Banco Mundial y muestra los instrumentos que usó para transformarse en productor de conocimiento de “modo 2” (Nowotny, Scout y Gibbons, 2001) y “ventanilla única global de conocimiento educativo” (Zapp, 2017, p. 5). Según la investigación de archivo de Phillip Jones (2004), el concepto de un banco internacional de conocimientos se debatió por primera vez en la Junta de Gobernadores del Banco Mundial en marzo de 1996. Una de las opciones debatidas fue si las operaciones de préstamo financiero debían delegarse a los bancos regionales de desarrollo (Banco Asiático de Desarrollo, Banco Africano de Desarrollo, etc.) mientras que el propio Banco se centraba en el préstamo de ideas. Tres años más tarde, en 1999, se lanzó la Red de Desarrollo Global [Global Development Network] en una conferencia celebrada en Bonn (Stone, 2000). Aunque el Banco Mundial no abandonó su rol como banca de dinero, desde entonces ha intensificado su función como productor de conocimientos, cada vez más, como productor e intermediario de conocimientos pertinentes para la formulación de políticas.
Si bien en sus inicios la UNESCO recopilaba información normalizada de los sistemas educativos nacionales y la publicaba periódicamente, a partir de los años ochenta perdió su importancia frente al Banco Mundial (Heyneman, 1999; Cussó y D’Amico, 2005, Cussó, 2006). Tras un periodo de intensa colaboración entre ambas organizaciones, su “Programa Cooperativo” finalizó en 1989 como resultado de una guerra territorial (Elfert e Ydesen, 2023). La derrota de la UNESCO en la batalla discursiva en torno a la “educación para el desarrollo” supuso un cambio de paradigmas ideológicos de cooperación internacional; en un extremo, una visión poco financiada de la educación para el desarrollo desde la perspectiva de los derechos humanos, impulsada por la UNESCO y, en el otro, un enfoque centrado estrechamente en la educación para el crecimiento económico, financiado con amplios recursos del Banco Mundial. A medida que se fueron distanciando, sus diferencias ideológicas aumentaron con el tiempo. Ambas organizaciones se conformaron como contraimágenes, lo que les permitió articular sus misiones en agudo contraste. Sus idiosincrasias ideológicas tienen consecuencias de gran alcance e impregnan todos los aspectos de sus operaciones, incluida la forma en que miden y explican, por ejemplo, la repetición de grados (Cardoso, 2020).
Desairada y desfinanciada, la UNESCO se retiró de la carrera internacional y sólo volvió a realizar una rigurosa investigación comparada internacional en 1999 con la creación del Instituto de Estadística [Institute for Statistics] y, años más tarde, en 2002, con el Informe de Seguimiento de la Educación en el Mundo [Global Education Monitoring Report]. Por todas estas razones, la OCDE y el Banco Mundial son considerados los primeros impulsores de la investigación sobre indicadores y de la recopilación de datos con fines de seguimiento (Seitzer, Baek y Steiner-Khamsi, 2023). Según Jarl Bengtsson, antiguo director e integrante del staff entre 1971 y 2002 del Centro de Investigación e Innovación Educativa de la OCDE [Centre for Educational Research and Innovation], fue en los años ochenta cuando allí se comenzó a focalizar en los estándares educativos y en los indicadores (Bengtsson, 2008). Esto confluyó en el Programa de Indicadores Internacionales de Educación [International Education Indicators], la serie Education at a Glance y en el Programa para la Evaluación Internacional de los Estudiantes (PISA) [Programme for International Student Assessment] (Grek e Ydesen, 2021). A fines de esa década, el Banco Mundial también empezó a financiar el desarrollo de indicadores; la organización amplió progresivamente su banco de datos desde 116 indicadores en abril de 1989 a 1600 en octubre de 2018.1
En comparación, el ascenso de la intermediación de conocimientos como resultado del exceso de información facilitada por las plataformas digitales de libre acceso está menos estudiado (Seitzer, Baek y Steiner-Khamsi, 2023). Las herramientas de comunicación multimedia disponibles en estas plataformas se prestan a la síntesis de la investigación, a una mejor visualización de los datos y a una redacción más sencilla de las conclusiones, incluso si los datos y las evidencias son de producción propia, como sucede en la mayoría de los organismos internacionales. Para el contexto estadounidense, Christopher Lubienski sostiene que no hay escasez sino, por el contrario, un “exceso de evidencias”. En tal “mercado de ideas”, existen amplias oportunidades para que nuevos actores, concretamente del sector privado, se ofrezcan como intermediarios entre la ciencia y la política:
En el abismo que separa la investigación y la formulación de políticas, asistimos a la entrada de nuevos actores –redes de intermediarios- que tratan de recopilar, interpretar, empaquetar y promover evidencias para que sean utilizadas por los hacedores de políticas para fundamentar sus decisiones (Lubienski, 2019, p. 70).
Las características de la economía digital en condiciones de superabundancia de información preparan el terreno para una constelación que, a primera vista, parece contradictoria: los cinco grandes organismos internacionales mencionados más arriba compiten entre sí, pero dependen de la creación de redes establecidas entre sí y entre una miríada de otras organizaciones, a fin de dirigir la atención hacia sus propias plataformas digitales. Los sitios web o plataformas digitales son uno de los medios de comunicación más comunes para la intermediación de conocimientos (otros son las reuniones, visitas, conferencias, etc.) que suelen depender de sus integrantes para llamar la atención. Independientemente de la escasa aceptación y uso a escala nacional (Steiner-Khamsi, Faul, Baek, Numa Hopkins y Iwabuchi, en prensa), son un activo para las organizaciones también en otros sentidos: aunque la mayor parte de la información de las plataformas se pone a disposición de forma gratuita, las organizaciones se apropian del valor a través de la propiedad de determinados servicios (asistencia técnica, talleres, cursos, etc.) y el control de derechos (Birch y Muniesa, 2020; Komljenovic, 2020; Komljenovic y Robertson, 2016). Como ya se ha mencionado, también existen beneficios indirectos, como la ampliación del alcance y el impacto de la organización mediante la creación de redes con otras organizaciones con las que mantienen “vínculos débiles”, es decir, organizaciones que trabajan en el mismo ámbito de las políticas pero en campos adyacentes, otros países u otras áreas de especialización (Granovetter, 1973; Weber y Yanovitzky, 2021).
La recolección estandarizada de datos. Esbozo de los cambios discursivos
Podría decirse que la recolección de datos con fines ligados a las políticas y la planificación no sólo ha crecido en volumen, sino que también se ha replanteado en términos de sus finalidades. Los cambios discursivos han sido especialmente pronunciados en la recopilación estandarizada de datos, es decir, cuando se utiliza el mismo conjunto de indicadores transnacionales para medir las características nacionales de los sistemas educativos. Proponemos hacer un breve esbozo histórico que dé cuenta de los cambios sucedidos en el uso de esos indicadores. Para ello, caracterizaremos el accionar de personas e instituciones influyentes en tres periodos:
Jullien de Paris y su Esquisse d’un ouvrage sur l’Education Comparée [Esbozo de una obra sobre Educación Comparada] (1817);
las “encuestas” de Paul Monroe en Filipinas (1912-1914) y el trabajo de Isaac Kandel en torno a la comparabilidad y la Teoría de la Civilización;
la colaboración del Instituto de Estadística de la UNESCO con otras partes interesadas en el desarrollo de indicadores educativos para los Objetivos de Desarrollo Sostenible de 2030 (2015-16).
Es cierto que estos actores tienen diferentes estatus y vínculos con diversas esferas de poder. Sin una posición formal en un sistema educativo, el poder de Jullien era limitado, aunque formaba parte de una impresionante red informal de investigadores y profesionales (Fraser, 1964). El Teachers College que integraban Monroe y Kandel forjó influyentes asociaciones con el gobierno estadounidense con vistas a proyectos internacionales (Monroe, Paez y Duggan, 1925). El Instituto de Estadística de la UNESCO tiene el mandato de producir datos comparables internacionalmente en sus ámbitos de competencia (Cussó, 2006).
No obstante, tienen algo en común: su trabajo en el ámbito de la educación se produjo en momentos fundacionales del campo más amplio de las estadísticas oficiales. En Francia, la Oficina de Estadística de la República se fundó en 1800, fue clausurada por Napoleón en 1812 y sustituida por la Estadística General de Francia [Statistique Générale de la France] en 1833. En Estados Unidos, la Oficina del Censo [United States Census Bureau] pasó a ser permanente en 1902 (Desrosières, 1998). El Instituto de Estadística de la UNESCO se fundó en 1999 y en 2001 se apartó de su sede en París (Cussó, 2006), coincidiendo con los Objetivos de Desarrollo del Milenio y los objetivos del movimiento Educación para Todos.
Además, la elección de estos actores es necesariamente parcial. Por ejemplo, el Instituto de Estadística es una rama de la UNESCO que en 1946 sucedió al Instituto Internacional de Cooperación Internacional (Smyth, 2008); por tanto, este hilo conduciría a la década de 1920, el apogeo de Monroe. Nuestro objetivo no es la historia y la genealogía de cada actor, sino proponer ejemplos de diferentes enfoques de comparación educativa desde la época de Jullien.
Naturalmente, los usos y abusos de los estudios de políticas comparadas han cambiado significativamente en los últimos doscientos años. En consonancia con otros trabajos que exploran la historia de la comparación internacional y las estadísticas educativas (Cussó y D’Amico, 2005), discerniremos tres cambios discursivos: en las primeras décadas del siglo XIX la comparación se utilizaba para la modernización, considerada como una característica de la construcción nacional; a principios del siglo XX pasó a formar parte de la colonización y el “desarrollo”, en momentos donde la suposición de que los sistemas educativos de los imperios coloniales eran superiores a los de sus colonias impregnó las ciencias sociales y las humanidades; finalmente, desde la década de 1990, cuando el objetivo de la comparación transnacional ha estado inextricablemente ligado a la supervisión del cumplimiento de las metas definidas a través de acuerdos internacionales, podría decirse que estas herramientas de política internacional tienen un efecto de armonización, homogeneización y estandarización a nivel de discurso político.
Los tres periodos seleccionados reflejan cambios importantes en cómo y por qué se desarrollaron dichos indicadores educativos a lo largo del tiempo. En cada caso se aplican los siguientes objetivos: modernización / construcción nacional; colonización / desarrollo; y normalización / globalización.
El proyecto científico de Jullien: observar, comparar, tomar prestado
Jullien de Paris es considerado uno de los “pioneros” de la educación comparada (Sobe, 2002). William W. Brickman, historiador de la educación, comparatista y cofundador de la Comparative and International Education Society [Sociedad de Educación Comparada e Internacional], nos recuerda que el Esquisse d’un ouvrage sur l’Education Comparée [Esbozo de una obra sobre Educación Comparada] de Jullien se encontró por primera vez en un puesto de libros junto al Sena en París a finales del siglo XIX (Brickman, 2010). Fue Ferenc Kemény, un influyente intelectual público húngaro, activista por la paz y promotor de la educación internacional, quien se topó con este escrito en 1885 (Giraud, 1975). A partir de entonces, la fecha de publicación del Esquisse quedó inscrita como la fecha de nacimiento del campo de la Educación Comparada. Una segunda revitalización de Jullien puede atribuirse a Isaac L. Kandel, integrante del Teachers College de la Universidad de Columbia entre 1915 y 1946 y posteriormente consultor de la UNESCO. Él creó la historia de un campo que, en su opinión, tenía un futuro prometedor (Kandel, 1942). Ampliamente citadas, las publicaciones de Kandel condujeron al actual redescubrimiento de Jullien de Paris, marcado por el bicentenario de la publicación de su obra. Esta tercera revitalización se ha producido en un momento en el que las comparaciones transnacionales y la evaluación internacional de estudiantes a gran escala están recibiendo un interés sin precedentes, inspirando el deseo de profundizar en la historia de la investigación de indicadores, estadísticas y estudios de política comparada en educación.
Cabe destacar que Jullien no fue el primero en comparar sistemas educativos con el fin de extraer enseñanzas, emular y tomar prestadas políticas. De hecho, el “observador viajero” (Sobe, 2002) existía mucho antes de que la Educación Comparada se estableciera como ciencia. Gail Kelly se refiere a los primeros tiempos de la disciplina como la época en que “los caballeros viajaban mucho y escribían sobre las diferencias entre las naciones” (Kelly, 1992, p. 14). Además de estos observadores, existían analistas locales que comparaban sistemáticamente sus propios sistemas con los extranjeros. En 1808, el profesor francés César-Auguste Basset instó a su universidad a que envíe un investigador a “países extranjeros” para “observar, comparar y presentar los hechos” relativos a sus sistemas educativos y sus métodos de instrucción (Brickman, 2010, p. 47). En Alemania, se atribuye a Friedrich August Hecht la presentación del primer estudio de educación comparada, veinte años antes de la publicación del Esquisse de Jullien (Lenhard, 2015). De re scholastica Anglica cvm Germanica comparata [Comparación de la educación escolar inglesa y alemana] de Hecht se publicó en 1795 en latín, lo que puede ayudar a explicar por qué su libro recién se descubrió en el siglo XX, al igual que sucedió con el de Jullien, una vez que la educación comparada se estableció como un campo académico que requería su propia historia y genealogía. Sin embargo, hay dos rasgos de la obra de Jullien que lo diferencian de otros comparatistas tempranos: además de observar, comparar y presentar hechos, él desarrolló una metodología de comparación transnacional estandarizada y promovió activamente el préstamo de políticas. Desde una perspectiva crítica, se puede afirmar que desarrolló indicadores para reemplazar al observador y al investigador por una voz autorizada y anónima que presentaba los “hechos” o datos para formular las recomendaciones sobre lo que debía transferirse de un contexto nacional a otro.
Tal como lo describe Gauthier (1993), Jullien tenía, una “creencia mítica” en el poder de la educación pública para “regenerar” a las personas emancipándolas de las estructuras monárquicas feudales que aún dominaban la escena política en Francia y Europa. Al inicio de su carrera, quedó profundamente impresionado por los pedagogos suizos Johann Heinrich Pestalozzi y Philipp Emanuel von Fellenberg. Pestalozzi dirigía tres institutos en Suiza donde aplicaba su pedagogía centrada en el niño, en las ciudades de habla alemana de Burgdorf y Münchenbuchsee, así como en Yverdon, situada en la parte francófona. Jullien se trasladó con su familia a esta última localidad y vivió en el instituto de Pestalozzi durante tres meses. Tras esta breve estancia, regresó varias veces a Yverdon entre 1811 y 1812 para estudiar a fondo la pedagogía pestalozziana. Suiza se convirtió en un importante laboratorio para los estudios comparados de Jullien debido a la influencia positiva de Pestalozzi en su creencia mítica en la educación pública como medio para lograr la felicidad, mitigar las diferencias de clase social y fomentar la participación política de los ciudadanos. También eligió este país porque su sistema de gobierno descentralizado dio lugar a veintidós sistemas educativos cantonales que reflejaban la gran variedad de sistemas existente en el resto de Europa. Como escribió Jullien:
Debido a la gran variedad de climas, lenguas, religiones, organizaciones políticas y gobiernos en los veintidós cantones de la Confederación Helvética, se encuentra allí una infinita variedad de establecimientos y sistemas educativos que reproducen todas las formas conocidas posibles (Jullien de Paris, 1817, p. 9)
A lo largo de sus viajes, Jullien recopiló una serie de indicadores que le servirían para comparar distintos países. Los sistematizó y presentó en forma de “preguntas” en un anexo de su Esquisse. Resulta sorprendente identificar la cercanía de estos indicadores con los que se utilizan actualmente en la comparación internacional, sin embargo, han cambiado las definiciones de lo que se considera un sistema educativo ideal.
Visiones sobre la pedagogía
Al desarrollar su metodología, Jullien partió de dos premisas importantes. En primer lugar, a diferencia de algunos de sus contemporáneos, no creía en el “carácter nacional” de los sistemas educativos y exploró otros factores para explicar las diferencias entre sistemas. De hecho, sus estudios sobre Suiza citados anteriormente demostraron las limitaciones de las teorías de carácter nacional predominantes en la época. Fraser (1964) contrasta este enfoque con el de Berchtold (1759-1809), quien creía que los sistemas educativos reflejaban los típicos rasgos culturales de sus respectivos Estados Nacionales. En segundo lugar, Jullien se centraba en la escolarización formal y pública, entendida como una serie de etapas (primaria, secundaria, enseñanza superior) en las que diferentes tipos de escuelas atienden las necesidades evolutivas del individuo. Como resultado de estos supuestos, la práctica de comparar sistemas educativos hoy en día comienza con la descripción de las organizaciones que imparten educación en los distintos niveles, su población objetivo y los recursos y estrategias que emplean.
La estructura y organización de los cuestionarios expuestos en Esquisse reflejan su visión de un sistema educativo ideal que ayudaría a crear el ciudadano de Estado Nación moderno y posfeudal. Aquí, Jullien presenta seis “series de preguntas” que contienen el germen de los indicadores contemporáneos. Las series 1 a 3 se centraban, respectivamente, en la enseñanza primaria, secundaria y superior, una tríada que refleja las sucesivas etapas de la infancia, la adolescencia y la juventud. Las series 4 a 6 habrían abarcado la formación del profesorado, la educación de las mujeres y el marco reglamentario, pero el Esquisse sólo presenta las dos primeras series. De las cuatro restantes sólo conocemos su formato e intención. Cada una de las cinco primeras series, las que tratan de un subsector del sistema educativo, sigue el mismo esquema: una tríada de tríadas.
La primera tríada, la más “cuantitativa”, abarca las escuelas, el personal docente y los alumnos. Jullien prefigura indicadores que aún se utilizan; por ejemplo, pregunta “¿cuál es la proporción del número total de estos alumnos con respecto a la población del municipio o división?”. Esto prefiguraba la actual Tasa Bruta de Escolarización,2 que limita el denominador a los niños en edad escolar, en lugar de a toda la población. Dado que Jullien también preguntó por las edades de entrada y salida de la escuela (preguntas 34 y 40, primera y segunda series), podría haber dado este paso más, si hubiera puesto en práctica su proyecto. Pero Jullien también es prudente. Por ejemplo, después de proponer una “proporción alumnos-maestro” (PAM), añade: “¿cuál es el mínimo, el máximo?” (segunda serie, pregunta 33), porque las PAD medias ocultan desigualdades (Kadzamira y Rose, 2003), una de sus preocupaciones recurrentes.
La segunda tríada, influida por sus observaciones en escuelas europeas innovadoras, se centra en el currículum y la instrucción. Su estructura parte de las concepciones tripartitas de Pestalozzi sobre el hombre y la felicidad, que constituyen la finalidad de la educación: la educación física y gimnástica se centra en la salud del cuerpo, la educación moral y religiosa en la moralidad y la virtud del corazón, y la educación intelectual en la instrucción de la mente.
La tercera tríada se centra en la relación de cada nivel con su contexto: los vínculos de la educación pública con la educación privada o domiciliaria, sus conexiones con otros niveles de la educación pública y su contexto histórico. Aquí Jullien relaja sus propias reglas, a saber, centrarse en la educación pública o formal, así como su compartimentación en niveles.
La agenda política de la educación obligatoria y la construcción nacional
Podría decirse que los indicadores educativos tienden a medir cuestiones que, en un determinado contexto de políticas, se consideran nuevas, relevantes o controvertidas. Entender la agenda de un estudio comparado en materia de políticas es, por tanto, clave para explicar por qué se seleccionan ciertos indicadores en detrimento de otros. Como era de esperar, los indicadores de Jullien reflejan su misión pedagógica, hecha a la medida de los escritos de Pestalozzi, así como su creencia en el Estado Nación moderno, donde se supone que la educación formal crea cohesión social y movilidad. Por lo tanto, su conjunto de indicadores se corresponde con el impulso de los actores gubernamentales de la época de establecer la escolarización como medio de construcción nacional. En efecto, combinó la pedagogía con la política en el sentido de que su fórmula contribuyó a hacer avanzar una visión pedagógica muy específica, en una época posfeudal en la que el valor político de la educación obligatoria para garantizar la alfabetización masiva se consideraba un requisito previo para la participación política y la difusión de los valores democráticos.
El proceso de construcción nacional en Francia, alimentado en parte por la evolución de las estadísticas oficiales, inspiró sin duda el enfoque político de Jullien:
Esta tarea de homogeneización y codificación de un gran número de aspectos de la vida humana tiene como manifestación más visible la unificación del territorio nacional, ya que muchas de las cosas y de las reglas entonces redefinidas y convertidas en más generales estaban anteriormente especificadas a nivel local o provincial. A este trabajo complejo, costoso, y a menudo doloroso, Siéyès, uno de sus actores principales, le da el nombre de “adunación”, unificación voluntaria de los sistemas de referencia. (…) El principio general es el de la tabla rasa de una sociedad caracterizada anteriormente por sus privilegios, su régimen tributario diferente según las provincias, sus supersticiones locales. (…) Esta construcción viene impulsada por una monumental encuesta estadística (Desrosières, 1998, p. 32-33)3
La intención modernizadora del plan de Jullien es evidente de varias maneras. En primer lugar, supervisa la difusión de pedagogías innovadoras y mide la prevalencia de enfoques modernos y tradicionales. En segundo lugar, fomenta la exploración y la experimentación para idear nuevas metodologías de instrucción, identificando lo que llamaríamos “buenas prácticas”. En tercer lugar, propone una visión holística del desarrollo humano, siguiendo a Pestalozzi y tomando un enfoque sistémico de la educación. Por último, el meliorismo informa todo el proyecto, dentro del marco filosófico de la Ilustración.
Durante sus viajes, Jullien observó pedagogías innovadoras en acción y fomentó la adopción de las ideas de Bell y Lancaster, de Pestalozzi, así como las de Gaultier. Mientras tanto, otras preguntas de su enfoque exploratorio/experimental no son instrumentos de recolección de datos, sino interrogantes sobre una pedagogía eficaz y ética: “¿cómo se consigue dirigir y supervisar, de manera indirecta, sin perturbar la libertad de los niños, sus ejercicios y sus juegos?”. La pregunta contiene claras implicaciones morales e intelectuales que ilustran el enfoque holístico de Jullien. Después de preguntar sobre el uso de recompensas por buen comportamiento o la competencia para fomentar el progreso en el estudio, propone renunciar a ambos en favor de centrarse en la “satisfacción interna del niño (...) en la conciencia de su fuerza y progreso a medida que ejercita y desarrolla su carácter moral y su inteligencia” (preguntas 86, 88 y 90, Fraser, 63). Uno puede sentirse tentado a proponer que esta idea extrañamente moderna se popularizó muchos años después y resurgió más recientemente, en la década de 1970, bajo los auspicios de la motivación intrínseca (Deci y Ryan, 1975).
El pensamiento sistémico subyacente de Jullien atraviesa todas las secciones, explorando los vínculos entre la riqueza, las prácticas de crianza y la escolarización formal. En un momento dado, examina la relación entre la clase social, el uso de nodrizas y la influencia materna en la educación. Primero pregunta si “los ciudadanos más ricos confían sus hijos a nodrizas” (pregunta 43, educación física), luego si “las madres ejercen una influencia considerable en la educación primaria de sus hijos” (pregunta 78, educación moral), por último, si hay diferencias “con respecto a esta influencia de las madres entre las clases pobres y las ricas” (pregunta 79). Este tipo de preguntas reflejan su creencia mítica en el acto de educar, ya sea en las casas o en las escuelas, como panacea para la desigualdad social y las estructuras feudales.
Otro ejemplo del pensamiento sistémico de Jullien se manifiesta en su enfoque meliorista. No sólo le interesaba describir y comparar sistemas, sino también mejorarlos. Por ejemplo, relaciona las características sociodemográficas, la experiencia y el rendimiento de los profesores con los resultados del aprendizaje de los alumnos. Tras indagar sobre el rendimiento, la edad y la experiencia de los profesores, se pregunta si son “los más jóvenes o los mayores los que tienen más éxito y forman a los mejores alumnos”. En este caso, se plantea dos hipótesis que se excluyen mutuamente: ¿la buena enseñanza se explica por la experiencia de los profesores o por las innovaciones pedagógicas a las que los más jóvenes pueden estar más expuestos y ser más receptivos? Jullien se inclina inequívocamente por esta última hipótesis al defender las prácticas pedagógicas innovadoras y centradas en el alumno que espera encontrar más frecuentemente entre los profesores más jóvenes.
La inscripción ideológica de Jullien en la Ilustración es evidente en todo momento, tal como cuando exige respeto por “la libertad de los niños”. La igualdad es una preocupación recurrente, expresada sobre todo en términos de diferencia entre ricos y pobres. En cuanto a la solidaridad, se pregunta si en las escuelas se “incita a los adolescentes contra ciertas naciones” o si se les inculca “una bondad universal para con los hombres e incluso los animales”. Los indicadores de Jullien pretendían determinar qué tipo de educación pública consigue hacer feliz al individuo y equitativo al Estado Nación moderno.
Los intentos de Monroe y de Kandel por comprender las etapas del desarrollo
Aunque los objetos de estudio han cambiado a lo largo de los dos últimos siglos, el método de comparación transnacional como herramienta política permanece constante. Por ejemplo, durante siete años, en la década de 1930, la International Examination Inquiry reunió a eminentes académicos de Estados Unidos, Escocia, Inglaterra, Francia, Alemania, Suiza, Noruega, Suecia y Finlandia para llevar a cabo una investigación comparativa sobre la eficacia de los exámenes de ingreso en la enseñanza secundaria (Lawn, 2008). Uno de los propósitos era aprender de los sistemas educativos que habían aplicado políticas que abordaban problemas específicos, como la expansión de la enseñanza secundaria en Europa y Estados Unidos. El propósito, tal y como se concibió en su momento, era aprender de los sistemas educativos que estaban más “desarrollados”. La firme creencia en las etapas de desarrollo queda mejor ilustrada por los profesores del Teachers College que participaron en estudios internacionales comparados entre Estados Unidos y Europa, y asesoraron a los gobiernos que les encargaron revisar el sector educativo y ofrecer recomendaciones para la reforma. Entre ellos se encontraba Paul Monroe, el profesor de mayor renombre internacional del Teachers College en aquella época.
Las encuestas de Monroe: comprender las necesidades locales
Las “encuestas en tierras extranjeras” de Monroe, realizadas a principios del siglo XX, mostraron los cambios en el uso de la investigación de indicadores y estadísticas educativas, por ejemplo, en Filipinas mientras estaba bajo tutela estadounidense (Monroe, Paez y Duggan, 1925). Estos trabajos tuvieron lugar tras la creación de la Oficina del Censo estadounidense en 1902, en una época de las estadísticas oficiales caracterizada por “relaciones renovadas entre la administración y la comunidad académica” (Desrosières, 1998, p. 199)
Como profesor de educación comparada e historia de la educación en el Teachers College, Monroe enseñó a tres grupos de estudiantes: misioneros estadounidenses que creían en un método universal de educación basado en la Biblia; estudiantes laicos que aspiraban a trabajar para la administración colonial de Estados Unidos, otros imperios coloniales o como expertos para gobiernos extranjeros; y estudiantes internacionales que pretendían regresar a sus países como líderes educativos que adaptarían las lecciones de Estados Unidos y Europa para la escolarización de sus ciudadanos (Bu, 1997).
Además de enseñar e investigar en el Teachers College, Monroe asesoraba a los gobiernos basándose en “encuestas”, es decir, investigaciones empíricas de sus sistemas educativos con el objetivo de identificar las necesidades locales. Actualmente, esto se consideraría una revisión del sector educativo dado que utilizaba un conjunto de indicadores para describir y analizar el status quo de un sistema educativo determinado. El compromiso de Monroe con la comprensión de las necesidades locales estaba en consonancia con el concepto de Educación Adaptada, utilizado en Estados Unidos para la escolarización de los nativos americanos, así como de los afroamericanos en el Sur, y que luego fue exportado por misioneros y académicos estadounidenses a otras partes del mundo. El imperio colonial británico también impuso la Educación Adaptada en sus colonias durante el mismo periodo (Steiner-Khamsi y Quist, 2000). La comprensión de las necesidades locales contrastaba claramente con la práctica misionera tradicional de hacer caso omiso de las circunstancias locales, y enseñar un plan de estudios que hacía proselitismo de creencias cristianas universales. El uso de indicadores y estadísticas para describir y comparar los sistemas educativos se denominó “método positivo” o, en tiempos de Monroe, “método científico” en educación.
La creencia en las etapas de desarrollo y la comparación contextual en la educación comparada del siglo XX
La extendida práctica de los investigadores comparativos de alertar, en teoría, contra la descontextualización, mientras que al tiempo promueven, en la práctica, la transferencia educativa entre contextos, plantea cuestiones específicas: ¿cómo han abordado la discrepancia entre teoría y práctica en la educación comparada?, en particular, ¿cómo han justificado la transferencia educativa? Los comparatistas de principios del siglo XX, como Monroe, utilizaron la Teoría de la Civilización para construir la comparación. Se consideraban comparables los individuos, grupos o naciones que se percibían en el mismo estadio de “civilización”. Lo más habitual era que los investigadores identificaran la etapa de desarrollo concreta de cada una de las “razas”, naciones y sistemas educativos. Se consideraba que los afroamericanos, los nativos americanos y los africanos (y más tarde, todos los pueblos colonizados en el imperio colonial británico) se encontraban en el mismo estadio subdesarrollado de civilización. Dado que estos grupos eran comparables, la transferencia de modelos educativos de un continente a otro se consideraba metodológica y moralmente posible. Por ejemplo, Thomas Jesse Jones, presidente de la Comisión de Educación Africana Phelps-Stokes, justificó la transferencia del modelo estadounidense Hampton-Tuskegee4 al continente africano de la siguiente manera:
Aunque las condiciones de las aldeas en África difieren en muchos aspectos de las de América, donde estas actividades (de Hampton y Tuskegee) tuvieron gran influencia en la mejora de la vida rural, las semejanzas son lo suficientemente numerosas y reales como para justificar la creencia de que los planes antes descritos pueden adaptarse a las condiciones coloniales de África (Jones, 1922, p. 141).
Una buena ejemplificación del modelo de etapas (de desarrollo) proseguido por la educación comparada de la primera mitad del siglo XX se manifiesta en la obra de Isaac Kandel, quien abogó por un estudio contextual de los sistemas educativos denominado “método histórico en educación comparada”. El Education Yearbook [Anuario de Educación] que dirigió entre 1924 y 1944 consistía en una recopilación de estudios históricos acerca de un país, con el propósito de identificar el “carácter nacional” que presumiblemente subyacía en cada sistema educativo (Pollack, 1993).
Kandel sostenía que el desarrollo educativo había seguido el mismo ritmo en la mayoría de los países, desde un movimiento iniciado en el siglo XIX que concentró sus esfuerzos en garantizar una educación elemental universal y obligatoria (Kandel, 1944). Siguiendo el modelo de etapas, el próximo paso sería la expansión de la enseñanza secundaria, seguida de la implantación de la formación profesional y técnica y, a continuación, el establecimiento de un sistema de enseñanza superior.
En la primera mitad del siglo XX, los académicos de Norteamérica y Europa descubrieron África, Latinoamérica y Asia Oriental como laboratorios de investigación social y de estudios educativos. Estaban fascinados por lo que los sistemas educativos europeos y norteamericanos podían aprender de los países menos desarrollados, y por lo que los países pobres, a su vez, podían adoptar de la experiencia pasada en educación y construcción nacional de sus homólogos más ricos y “civilizados”. En este contexto, Kandel sostuvo que la reforma del siglo XX en Jamaica podría beneficiarse de las lecciones aprendidas en el Reino Unido un siglo antes. Con gran compasión por la dificultad de llevar a cabo una reforma educativa fundamental en una nación insular que aún formaba parte del imperio británico, señaló que el sistema educativo jamaiquino tenía que “satisfacer todas las demandas de educación de una sola vez, mientras que otros países las había satisfecho lenta y fragmentariamente” (Kandel, 1944). Es por ello que animó a los responsables educativos de Jamaica a aprender de las experiencias de otros sistemas educativos, en particular, del inglés.
Académicos de renombre como John Dewey estaban entusiasmados con la idea de dar marcha atrás en el desarrollo educativo para evitar los errores de los países “educativamente avanzados” y transferir una versión mejorada a los que eran “educativamente nuevos”. A diferencia de la mayoría de los estudiosos de la época, Dewey dudaba en transferir modelos educativos de “países educativamente avanzados” a “países menos civilizados”, “menos complejos” y “menos desarrollados”. Sin embargo, su visita al programa mexicano de educación rural en 1926 fue un punto de inflexión. A su regreso, “reavivó su fe” en la transferencia educativa, fascinado por las oportunidades que tenían las naciones “educativamente nuevas” de empezar “de nuevo con las teorías y prácticas más ilustradas de los países educativamente más avanzados” (Goodenow, 1990, p. 29).
Más recientemente, los procesos de descolonización en África revigorizaron la noción de adunación de finales del siglo XVIII, que “se convirtió en un modelo mundial en la segunda mitad del siglo XX”; este nacionalismo metodológico proporcionó a los líderes africanos un marco para utilizar las estadísticas en la construcción de sus Estados Nacionales, y más tarde se convirtió en la base de los Objetivos de Desarrollo del Milenio (Speich Chasse, 2016).
Indicadores educativos de los Objetivos de Desarrollo Sostenible: el uso de normas mundiales para supervisar el progreso nacional
El tercer periodo, a partir de la década de 1990, se caracteriza por la globalización, definida como el aumento del flujo transnacional de personas, producción, finanzas, ideas, creencias y tecnología, acompañado de procesos de armonización, homogeneización o estandarización de políticas. En el panorama mundial de la educación, el establecimiento de convenciones internacionales, como la Educación para Todos, los Objetivos de Desarrollo del Milenio, los Objetivos de Desarrollo Sostenible, y el auge de las organizaciones internacionales (UNESCO, Banco Mundial, OCDE, etc.) como intermediarios del conocimiento que traducen y aplican (selectivamente) las convenciones mediante su puesta en práctica, medición, seguimiento y evaluación, han tenido la mayor repercusión en la formulación de nuevos indicadores. Dicho esto, es importante tener en cuenta que el nuevo conjunto de indicadores simplemente se añadió al conjunto ya existente de indicadores de uso común, formulados y utilizados durante los últimos doscientos años por Jullien, Monroe y muchos otros. Novoa y Yariv-Mashal (2003) consideran que la educación comparada actual se nutre en parte de indicadores destinados a promover reformas o legitimar políticas, al tiempo que se preguntan si el futuro de la disciplina girará en torno a modos de gobernanza o preocupaciones científicas. Del mismo modo, Cussó (2016) pretende “sacar a la luz las sutilezas del equilibrio entre la precisión (métodos) y las necesidades institucionales (políticas)”, dilucidando cómo se producen los datos y a qué propósito sirven.
Los organismos internacionales actúan, por un lado, como creadores de normas y, por otro, como supervisores y evaluadores de los avances nacionales hacia las normas o puntos de referencia que habían establecido con sus Estados miembros o constituyentes. Al igual que en los dos periodos anteriores, es importante analizar el contexto político -que hoy denominamos contexto político global- para entender por qué algunos indicadores se desarrollaron de nuevo o se añadieron a los conjuntos de indicadores ya existentes.
No nos centramos en un meta-análisis de las estadísticas ni en su uso político (Cussó, 2016), sino en su intersección, lo que hace que los indicadores de los compromisos internacionales sean especialmente esclarecedores. Por ejemplo, el Objetivo 4 de la Educación para Todos exige una mejora del 50% en las tasas de alfabetización de adultos, mientras que la meta 5.5 pretende “reducir las tasas de analfabetismo” en un 50% (UNESCO, 2000). Al parecer, los responsables de Dakar invirtieron la redacción “negativa” de esta última meta por un objetivo redactado de manera “positiva”; sin embargo, las formulaciones no son matemáticamente equivalentes, dando como resultado final lo que se considera un “disparate aritmético” (Guadalupe, 2015). Sorprendentemente, para los países con tasas iniciales de alfabetización inferiores al 50%, el objetivo “positivo” es menos ambicioso, podría decirse más realista que la meta “negativa”. Por ejemplo, en 2001 la tasa de alfabetización de adultos de Níger era del 14%.5 Para 2015, el objetivo “positivo” sería del 21% y el “negativo” del 57%. La tasa de 2015 fue del 19%. ¿Esto refleja la incapacidad de los políticos para entender la lógica de los tecnócratas?, ¿o lo contrario?
El nexo global / nacional: las pruebas globales se enfrentan a los currículums nacionales
Dos fenómenos alcanzaron una prominencia sin precedentes desde la década de 1990: por un lado, los compromisos internacionales (tales como Educación Para Todos y los Objetivos de Desarrollo Sostenible) supervisados con datos producidos por el Instituto de Estadística de la UNESCO y analizados en el Informe de Seguimiento de la Educación en el Mundo [Global Education Monitoring Report]; por otro lado, el crecimiento de las evaluaciones internacionales a gran escala. Sin embargo, ambos no convergieron hasta la inclusión en 2015 de los resultados del aprendizaje en los Objetivos de Desarrollo Sostenible.
Fundado en 1999, el Instituto de Estadística ha sido, en comparación con la OCDE, el Banco Mundial y otros bancos internacionales de conocimientos, una especie de recién llegado, sobre todo teniendo en cuenta su cambio relativamente reciente hacia los resultados del aprendizaje. La atención prestada a la competitividad global de los sistemas educativos nacionales -medida en función de los resultados del aprendizaje de los estudiantes- es lo que impulsa la política de las estadísticas de la educación en el nuevo milenio. Desrosières describió un cambio reciente en las estadísticas internacionales, independientemente del sector, “de la armonización de los resultados (gobiernos que clasifican sus datos de conformidad con las normas internacionales) a la armonización de los métodos (gobiernos que producen estadísticas estandarizadas internacionalmente en origen)” (Cussó, 2016, p. 59) ¿Está ocurriendo esto en el ámbito de la educación? En caso afirmativo, ¿juegan algún papel la creación del citado Instituto, el auge de las evaluaciones internacionales a gran escala y el advenimiento de los Objetivos de Desarrollo Sostenible?
En la década de 1990, la División de Estadística de la UNESCO siguió midiendo y comparando la difusión de la educación de masas y la alfabetización para impulsar el desarrollo, con un asociado respeto por la identidad cultural (Cussó 2006). Mientras tanto, organismos como la OCDE y el Banco Mundial criticaban el enfoque de la UNESCO al tiempo que exigían datos sobre los logros del aprendizaje. Para algunos, el comparativismo de desarrollo de la UNESCO contrastaba con el comparativismo de globalización de la OCDE (Cussó y D’Amico, 2005). Estos debates condujeron a la creación del Instituto de Estadística de la UNESCO en 1999 (Cussó 2006). Desde entonces, el Instituto ha informado sobre los procesos de globalización, como la movilidad internacional de los estudiantes de enseñanza superior. Además, a lo largo de los años, se ha centrado cada vez más en la eficiencia de los sistemas educativos, lo que es coherente con el comparativismo de globalización. Sin embargo, no difundió datos de evaluación del aprendizaje. ¿Por qué no? Después de todo, el objetivo 6 de la Educación Para Todos exigía, entre otras cosas, “resultados de aprendizaje mensurables (...) especialmente en lectura, escritura, aritmética y competencias prácticas esenciales”. Ante ello, “los Objetivos de Desarrollo del Milenio, a los que se ha prestado mayor atención en los últimos quince años, se centraban más estrictamente en el acceso” (Rose, 2015, p. 487).
Un ejemplo de la estandarización educativa es el crecimiento exponencial de las evaluaciones a gran escala que se produjo simultáneamente a nivel nacional, regional y transregional: los países pusieron foco en las evaluaciones nacionales a gran escala por sobre un anterior énfasis puesto en los exámenes, surgieron tres evaluaciones regionales y las transregionales se generalizaron e hicieron periódicas. En el ámbito nacional, los agentes mundiales impulsaron el pasaje de la época dorada de los exámenes (1963-1993) a la primacía de las evaluaciones nacionales a gran escala, que “fueron por lejos” las más apoyadas por el Banco Mundial entre 1998 y 2009 (Liberman y Clarke, 2012, p. 3). A diferencia de los exámenes, dichas evaluaciones pretenden proporcionar información sobre el rendimiento del sistema y los factores asociados (Clarke, 2012), por lo que comparten finalidad y metodologías con las evaluaciones internacionales a gran escala. Podría decirse que la aplicación de las evaluaciones nacionales a gran escala prepara a los países para adherirse a las evaluaciones internacionales a gran escala, y viceversa.
Mientras tanto, las evaluaciones regionales, que no son ni nacionales ni mundiales, desafían la clasificación: algunos autores las incluyen en los análisis de las evaluaciones internacionales a gran escala (Pizmony-Levy, 2013), pero otros no (Heyneman y Lee, 2013).6 Algunos las vinculan a las evaluaciones nacionales, ensalzando sus virtudes: “las evaluaciones regionales y nacionales pueden ser ventajosas a la hora de examinar la calidad de la educación y el currículum que realmente imparten las escuelas y los profesores. Suelen ser más sensibles al contexto” (Kamens y Benavot, 2011, p. 286). Las evaluaciones internacionales a gran escala comenzaron en la década de 1960 con la Asociación Internacional para la Evaluación del Rendimiento Educativo [International Association for the Evaluation of Educational Achievement].7 Desde la década de 1990, las nuevas evaluaciones interregionales llegan a un conjunto más amplio y diverso de países y adoptan “ciclos predecibles (¿?)” (Pizmony-Levy, 2013, p. 58), lo que permite actualizaciones periódicas sobre los progresos.8 Esto, unido a la entrada de la OCDE en este campo, impulsó el pivote “de la investigación a las políticas” (Wagemaker, 2013, p. 11), a “auditar y rendir cuentas” (Pizmony-Levy, 2013, p. 54).
Hoy en día, este tipo de evaluaciones internacionales son conocidas por sus controvertidos rankings de promedios que están cambiando la forma de elaborar indicadores educativos. Esto se aparta de las tradicionales tasas y ratios sobre matriculación, promoción, alfabetización, etc.,9 que distinguen entre quienes tienen y quienes no tienen garantizado el acceso a la educación. Por el contrario, los promedios se adaptan a un enfoque de competitividad global, porque son sensibles a los valores extremos, en ambos extremos de la distribución, es decir, tanto los estudiantes de bajo rendimiento como los de alto rendimiento ejercen una atracción sobre el valor medio. El objetivo de PISA 2009 fue “identificar a los alumnos con mejores resultados” (OECD, 2010) encontrando sus características comunes, extendiendo así las “buenas prácticas” de los países a los alumnos individuales.
Uno de los principales retos de las evaluaciones internacionales a gran escala es la alineación con el currículum. Existen dos enfoques que compiten entre sí: la Asociación Internacional para la Evaluación del Rendimiento Educativo analiza los currículums de los países participantes y destila sus puntos en común en la prueba (Martin y Nelly, 1996); por su parte, las pruebas PISA impulsadas por la OCDE evalúan habilidades para resolver problemas de la “vida real”, independientemente de los currículums (OECD, 2010). Ambos enfoques asumen que en los países participantes la escolarización o la vida real se han vuelto lo suficientemente homogéneas como para justificar una única herramienta de medición. Los críticos argumentan que centrarse en las competencias básicas puede llevar a los países a descuidar áreas más idiosincrásicas, como las ciencias sociales, que no están cubiertas en las evaluaciones. Por otra parte, no hay evidencias de un efecto independiente de las evaluaciones internacionales a gran escala en las políticas; por el contrario, los actores nacionales explotan los resultados en función de sus propios objetivos (Teltemann y Klieme, 2016). ¿Podría esto aún, eventualmente, y en parches, dependiendo de los actores nacionales, conducir a un bucle de retroalimentación de estandarización transnacional de los planes de estudio? ¿Qué papel desempeñará el Objetivo de Desarrollo Sostenible 4.1.1 al hacer hincapié en los resultados del aprendizaje y centrarse explícitamente en la lectura y las matemáticas?
De la confianza en los números a la confianza en la fuente de datos
Desde 2014, el debate en torno a los Objetivos de Desarrollo Sostenible, cada vez más técnico e inevitablemente político, ha pasado de los objetivos a las metas y a los indicadores. Los indicadores permiten medir y comparar contextos muy diferentes. Ayudan a perpetuar la creencia en los números; en particular, reproducen tres fachadas de la planificación de políticas basada en evidencias: racionalidad, precisión y universalidad (Steiner-Khamsi, 2013). Sin embargo, la proliferación de la medición estandarizada en forma de indicadores también ha conducido a una democratización de la recopilación de datos y, lo que quizá sea más importante, a una democratización de la interpretación de los datos. Todo el mundo o, en nuestro caso, todos los organismos internacionales, se basan en el mismo conjunto de indicadores, pero los reutilizan de acuerdo con su propia agenda política. ¿Quién ha recopilado los datos y quién los ha interpretado? El exceso de datos y los silos de información en la era digital confluyeron en el pasaje de la confianza en los números a la confianza en las fuentes. La carrera por establecer una fuente internacional de datos está en marcha. La batalla es especialmente pronunciada en el ámbito de las evaluaciones de estudiantes a gran escala. Hace unos años, el Instituto de Estadística de la UNESCO afirmaba que el consenso sobre las fuentes de datos puede ser difícil, ya que “actualmente no existe un marco que permita conciliar las diferencias entre los distintos tipos de evaluación para producir datos comparables entre países” (UIS, 2016, p. 57).
En los años transcurridos desde entonces, la proliferación de indicadores educativos de los Objetivos de Desarrollo Sostenible hizo que se diera prioridad a unos sobre otros. Estas jerarquías pueden ser formales o informales. En primer lugar, los indicadores se clasifican en dos categorías: “los indicadores temáticos complementarios cubren aspectos detallados del Objetivo de Desarrollo Sostenible 4 que no podían abordarse dentro de un número limitado de indicadores globales” (el énfasis es nuestro).10 En segundo lugar, en función de la disponibilidad de datos y métodos, los indicadores van desde el nivel I (en el que los datos están disponibles con regularidad), hasta el III (no se dispone de datos ni de métodos acordados internacionalmente para producirlos).11
Además, los indicadores de acceso y equidad parecen desvanecerse, junto a dimensiones de calidad centradas en insumos o procesos, mientras que surgen otras prioridades: la Alianza Mundial para el Seguimiento del Aprendizaje de la UNESCO [Global Alliance to Monitor Learning] hace hincapié en los resultados del aprendizaje, en particular, en el indicador 4.1.1, definido como la proporción de niños y jóvenes, (a) en los grados 2/3, (b) al final de la primaria, y (c) al final del primer ciclo de secundaria, que alcanzan al menos un nivel mínimo de competencia en (i) lectura y (ii) matemáticas, por sexo.12 “Incluso cuando se compara con otros indicadores mundiales para la educación, el Objetivo de Desarrollo Sostenible 4.1.1 parece gobernarlos a todos” (Smith, 2019, p. 30).
Crucialmente, estas jerarquías están anidadas como muñecas rusas: “debido en gran parte al esfuerzo y la atención de Alianza Mundial para el Seguimiento del Aprendizaje al Objetivo de Desarrollo Sostenible4.1, el indicador global 4.1.1 pasó de un indicador de nivel III a uno de nivel II” (Smith 2019, p. 30) (el énfasis es nuestro).13 En resumen, hay una predominancia de los indicadores globales por sobre los temáticos; de los indicadores de nivel I y II por sobre los de nivel III; de los resultados del aprendizaje por sobre los de acceso, equidad, insumos y procesos; y una predominancia del indicador 4.1.1 por sobre cualquier otra cosa. Estos esfuerzos mundiales reorientados en torno al aprendizaje ponen en primer plano las evaluaciones internacionales a gran escala. Además, la prominencia de cada una de ellas se deriva de su percepción de rigor técnico y comparabilidad internacional. En otras palabras, “la amplia y ambiciosa agenda de los Objetivos de Desarrollo Sostenible se ha reducido a una visión estrecha de la calidad como resultados de las pruebas de los estudiantes” (Smith 2019, p. 32), pero no cualquier resultado de las pruebas, sino solo aquellos que se perciben como globalmente comparables.
La Alianza Mundial para el Seguimiento del Aprendizaje hace que los datos del indicador 4.1.1 sean comparables a nivel mundial mediante la combinación de evaluaciones interregionales, regionales y nacionales a gran escala, utilizando tres dispositivos. En primer lugar, los países pueden participar en evaluaciones transregionales organizadas por la Asociación Internacional para la Evaluación del Rendimiento Educativo [International Association for the Evaluation of Educational Achievement], tales como PIRLS y TIMSS (para lectura y matemáticas, respectivamente, en 4.1.1.b), o la prueba PISA de la OCDE (para 4.1.1.c). En segundo lugar, pueden participar de evaluaciones regionales como ERCE (en América Latina) o PASEC (sobre todo en el África francófona), vinculadas entre sí a través de PIRLS o TIMSS en el proyecto Rosetta Stone (para 4.1.1.b). En tercer lugar, pueden aplicar evaluaciones nacionales a gran escala alineadas con el Marco Global de Competencias de la UNESCO [Global Proficiency Framework] mediante la “vinculación de políticas”.14 En conjunto, estos niveles transregionales, regionales y nacionales funcionan como sucesivas capas de andamiaje que se extienden por todo el planeta.
Si estas tres opciones parecen omnipresentes, es porque lo son. En la práctica, las evaluaciones a gran escala interregionales como PIRLS, PISA y TIMSS se consideran la norma para informar sobre el Objetivo de Desarrollo Sostenible 4.1.1, especialmente para el final de la primaria y el final del primer ciclo de secundaria. Pero incluso cuando las regionales como ERCE y PASEC se contemplan como fuentes potenciales al final de la primaria y se vinculan entre sí a tal efecto, esto no se hace directamente, sino a través de una evaluación transregional como PIRLS o TIMSS, en el mencionado proyecto Rosetta Stone. Un análisis detallado del propio Marco Global de Competencias debería revelar hasta qué punto los niveles de rendimiento definidos para los grados al final de la primaria pueden haberse inspirado en lo que se mide en las evaluaciones transregionales y regionales.
El Marco Global de Competencias se está convirtiendo rápidamente en una herramienta central para orientar las estrategias educativas globales de organismos multilaterales como el Banco Mundial, bilaterales como la Agencia de los Estados Unidos para el Desarrollo Internacional [United States Agency for International Development] (USAID) y fundaciones como la de Bill y Melinda Gates [Bill & Melinda Gates Fundation] (BMGF).15 Aunque se diseñó para valorar la concordancia entre las evaluaciones nacionales existentes y un conjunto de competencias acordadas internacionalmente y consideradas esenciales en cada grado, también podría convertirse en una herramienta para diseñar nuevas evaluaciones, reformar las existentes e incluso influir en el diseño de los planes de estudios.
Recientemente, PISA ha comenzado a revisar su débil acoplamiento con los currículums nacionales que antes consideraba una ventaja (Liu y Steiner-Khamsi, 2022). Por el contrario, la antigua directora del Informe de Seguimiento de la Educación en el Mundo de la UNESCO advierte lo siguiente:
Un currículum internacional basado en un sistema global de evaluación internacional a gran escala podría dar lugar además a una desalineación entre el sistema educativo y las necesidades de un país en relación con su etapa de desarrollo económico y las demandas del mercado laboral (Rose, 2015, p. 488).
Esta tensión puede resolverse mediante una transición gradual hacia la estandarización. Según el Grupo Interinstitucional de Expertos sobre los Indicadores de los Objetivos de Desarrollo Sostenible, las fuentes del indicador 4.1.1 serán las evaluaciones de aprendizaje interregionales, regionales, nacionales y dirigidas por los ciudadanos. Aunque no son comparables entre sí, el seguimiento se basará en estudios individuales mientras se crean escalas comunes en los próximos años.16 Esta transición gradual de los “estudios individuales” a las “escalas comunes” evoca el paso de la armonización de los resultados a la armonización de los métodos (Cussó, 2016).
Por último, es importante abordar otra forma en que este enfoque de los indicadores de aprendizaje está afectando el seguimiento del Objetivo de Desarrollo Sostenible 4. Si bien “entre los factores que inciden en el cambio del acceso a una visión limitada de la calidad se incluye la priorización de los indicadores globales sobre los temáticos” (Smith, 2019, p. 33), los primeros no solo están desplazando a los segundos, sino que también los están rehaciendo a su propia imagen. Un ejemplo de este fenómeno es la evolución del indicador temático 4.5.2, centrado en la equidad en relación con la lengua materna. Inicialmente se definió como el “porcentaje de alumnos de educación primaria cuya primera lengua o lengua materna es la lengua de enseñanza”.17
Pero luego el indicador 4.5.2 fue redefinido como el “porcentaje de alumnos en a) los primeros cursos, b) al final de la primaria, y c) al final del primer ciclo de secundaria que tienen su primera lengua o su lengua materna como lengua de instrucción”. Si estos tres puntos temporales resultan familiares, es porque reflejan los incluidos en el indicador global 4.1.1. Una razón para ello es, supuestamente, práctica: por un lado, permite utilizar las mismas fuentes de datos (evaluaciones a gran escala) para los indicadores 4.1.1 y 4.5.2; por el otro, dadas las supuestas dificultades para determinar la lengua de instrucción, se utiliza la “lengua del examen” como una aproximación a aquella.18 En consecuencia, no sólo se supervisan los resultados del aprendizaje a través de las evaluaciones internacionales a gran escala, sino también: características contextuales como la lengua materna; políticas como, en este caso, la correspondencia o discordancia entre la lengua materna y la lengua de instrucción (o más bien, su sustituto, es decir, la lengua de evaluación); y quizás lo más importante, sus supuestas relaciones entre sí.
En resumen, esta focalización de los Objetivos de Desarrollo Sostenible en los resultados del aprendizaje, que se traduce en una mayor prominencia de las evaluaciones internacionales a gran escala, podría potencialmente convertirlas en fuentes no solo sobre quién está aprendiendo qué, sino también sobre qué debería evaluarse y cómo, qué debería enseñarse y sobre qué es “lo que funciona” para fomentar los resultados del aprendizaje, fundamentalmente, según lo medidopor ellas mismas, o por las evaluaciones nacionales parcialmente inspiradas en ellas y, por tanto, influidas por las doctrinas de los organismos internaciones que las respaldan, como se verá en las conclusiones.
A la inversa, es importante reconocer, una vez más, la agencia de los gobiernos nacionales, y el hecho de que la participación en las evaluaciones internacionales a gran escala y la adopción de políticas educativas responderán a la propia agenda nacional de un país más que a los factores externos. También debemos recordar que la presentación de informes sobre los Objetivos de Desarrollo Sostenible es voluntaria para los países, y que son libres de unirse o abandonar las evaluaciones internacionales según lo consideren oportuno, aunque la comunidad mundial trata de incentivar estas decisiones. En este sentido, dichos objetivos y dichas evaluaciones, tanto como sus crecientes interconexiones, también pueden convertirse, hasta cierto punto, en una herramienta para que los gobiernos obtengan legitimidad externa para sus propias decisiones en materia de evaluación, currículum y política educativa en general.
Conclusiones
No hay que subestimar el poder discursivo de los números. En términos de la contribución metodológica de Jullien, se puede invertir la relación causal entre indicadores y comparabilidad, comúnmente asumida en la investigación comparada de los sistemas educativos nacionales. El uso de indicadores hace que los sistemas educativos se tornen comparables independientemente de lo diferentes que sean. Dicho de otro modo: los sistemas educativos no son comparables per se, se hacen comparables utilizando la misma medida. Hoy en día, convertir las características de unos pocos sistemas educativos en un conjunto global de indicadores que permitan a los investigadores comparar, pero también supervisar los avances, se ha convertido en motivo de celebración para algunos y de preocupación para otros. Los defensores de la planificación de políticas basadas en datos empíricos consideran que los indicadores son una herramienta eficaz para impulsar las responsabilidades en materia de desarrollo educativo. Los críticos, sin embargo, censuran el ritmo de la homogeneización y la estandarización que se ha derivado del establecimiento de normas globales (Mundy, Green, Lingard y Verger, 2016).
Es importante tener en cuenta que la estadística se convirtió en una herramienta importante para la gubernamentalización del Estado, un proyecto que, según Foucault, comenzó en los países europeos en el siglo XVI y se expandió durante la época de la construcción de las naciones en los siglos XVIII y XIX (Foucault, 1991). La evidencia sugiere que la recopilación de datos en una nación y la comparación de datos entre naciones estaban de moda en la época de Jullien. Las estadísticas educativas eran una característica importante, aunque poco estudiada, de la escolarización moderna que habían creado los Estados nacionales emergentes. El proyecto del Estado moderno de acumular datos sobre sus ciudadanos es un precursor de los actuales bancos de conocimientos de los organismos internacionales, tales como la OCDE, el Banco Mundial y la UNESCO. En la actualidad, estos bancos de datos y conocimientos no sólo recopilan información estadística sobre sus Estados miembros, sino que también incluyen carteras de “buenas prácticas”, a menudo presentadas como normas internacionales, que difunden fácilmente, en algunos casos con financiación, por todo el mundo.
Lo que hizo destacar a Jullien frente a otros diligentes investigadores empíricos de la educación y científicos sociales comparativos de su época fue precisamente su uso de los datos para fundamentar las decisiones políticas. Como ha señalado Jacqueline Gautherin (1993), Jullien veía la educación, o más precisamente la escolarización, como un vehículo para la felicidad individual y para una sociedad más igualitaria. En consecuencia, Jullien promovió activamente el préstamo de políticas en todos los países europeos. Para él, el uso de indicadores para extraer lecciones y tomar prestadas políticas ha estado, desde el principio, inextricablemente ligado al “método científico de comparación” (Gautherin, 1993, p. 2).
Una innovación no garantiza por sí sola la adopción y el reconocimiento por parte de los demás. Habría que sumergirse en la historia de las ideas durante el siglo XVIII para examinar con mayor profundidad la relación entre Jullien y otros primeros pensadores comparatistas, para determinar cómo y por qué sus aportes perduraron hasta el presente. Por ejemplo, el más conocido de los primeros investigadores europeos de la educación comparada, el director de instrucción pública de Francia, Victor Cousin (1792-1867), no sólo fue capaz de llevar a cabo una reforma educativa, sino que contribuyó a dar una dimensión política a la investigación comparada de los sistemas educativos (Brewer, 1971). Cousin siguió los pasos de Jullien de Paris al promover activamente el préstamo de políticas a través de las fronteras y contextos nacionales.
El proyecto de Jullien, nunca plenamente operativo, conservó paradójicamente su complejidad y su ambición. Su cuestionario, sin indicadores reales, arrojaba una amplia red que reflejaba su enfoque educativo holístico y modernizador destinado a construir una Francia igualitaria e ilustrada. Desde entonces, el legado de Jullien ha perdurado y evolucionado: las tasas de escolarización y otros indicadores de acceso se trataron como marcadores de desarrollo a lo largo del siglo XX; hoy en día, medidas transnacionales cada vez más estandarizadas, como los puntajes medios en las evaluaciones internacionales a gran escala, son consideradas predictores de la competitividad global y del crecimiento económico.
Históricamente, las comparaciones educativas han conceptualizado las regiones del mundo de diferentes maneras. Jullien se centró únicamente en su propio continente, ignorando la mayor parte del mundo, mientras animaba a las naciones europeas a aprender unas de otras. Monroe y sus contemporáneos ampliaron esta visión, pero asignaron papeles diferentes a dos grupos de países: los menos civilizados debían emular a los más civilizados, sin repetir sus errores; a la inversa, los primeros constituían un laboratorio en el que los países más civilizados podían aprender de esta experimentación. Claramente, subyacía un mapa colonial en la investigación educativa comparada de principios del siglo XX. Por último, en la era de los Objetivos de Desarrollo Sostenible, las normas y los puntos de referencia mundiales no se asocian, en teoría, a regiones concretas, sino a dispositivos como las evaluaciones internacionales a gran escala que muestran modelos dignos de emulación. Dicho esto, los tipos más influyentes de dichas evaluaciones se originaron en el mundo desarrollado y suelen destacar modelos industrializados.
Los Objetivos de Desarrollo Sostenible, en particular, su indicador 4.1.1 referido al rendimiento de los estudiantes, han suscitado un debate sobre las fuentes de datos que deberían utilizarse para supervisar los resultados del aprendizaje a nivel mundial: ¿evaluaciones nacionales, regionales, interregionales, o una combinación de ellas? Este debate incluye cuestiones técnicas relativas a la calidad de los datos, como su cobertura, validez y fiabilidad. Pero también afecta a cuestiones culturales y políticas, en particular, la alineación (o falta de alineación) entre la evaluación y el currículum. Así pues, la necesidad de alineación curricular a nivel nacional crea una tensión inevitable con la exigencia de comparabilidad de los actores globales. Una vez más, como en tiempos de Jullien, la comparación no debe hacerse desde cero, sino de acuerdo con las creencias actuales sobre la educación y teniendo en cuenta que, al hacer de algún modo comparables los sistemas, el proceso global puede influir en los mecanismos por los cuales un sistema educativo se valora a sí mismo y en la clase de sistema en la que se esforzará por convertirse.
El énfasis puesto sobre el indicador 4.1.1 de los Objetivos de Desarrollo Sostenible está asociado a los esfuerzos de algunos organismos internacionales por animar a los países a unirse a las evaluaciones internacionales a gran escala, quizá en el entendimiento de que esos datos están más cerca de ser comparables a escala mundial que las evaluaciones nacionales. Esto es importante porque los informes basados en evaluaciones internacionales difunden un discurso de política educativa que a menudo se centra en “lo que funciona”, y está muy influenciado por la ideología de los organismos internacionales que los respaldan. Véase, por ejemplo, una comparación de los discursos sobre la repetición de curso en las publicaciones de ERCE de la UNESCO y PISA de la OCDE (Cardoso, 2022b). Sin embargo, aunque esos diferentes discursos políticos están en parte respaldados por datos producidos por esas evaluaciones internacionales a gran escala, sus datos están moldeados por los propios diseños de las evaluaciones que, a su vez, están informados por las doctrinas educativas de los organismos internacionales, tal como los muestra Cardoso (2020) para el caso de la repetición de curso en cuatro países latinoamericanos.
Como región, América Latina puede ser receptiva al enfoque de “lo que funciona”, central en la educación comparada practicada allí desde la década de 1980, especialmente, en el ámbito de los organismos internacionales. El eje de estas intervenciones gira en torno a “experimentos que se consideran exitosos, y se utilizan como base para las ‘buenas prácticas’ o se citan como ‘lecciones aprendidas’ para los países latinoamericanos” (Acosta y Ruiz, 2017, p. 9). En la actualidad, el papel de las evaluaciones internacionales a gran escala en la identificación de “lo que funciona” puede verse reforzado en un contexto en el que “el auge de la planificación de políticas basada en la evidencia ha generado un excedente de evidencia hasta el punto de que ahora existe el desafío de cómo eliminar la evidencia irrelevante basándose en criterios de comparabilidad y credibilidad” (Liu y Steiner-Khamsi, 2022, p. 6). En este panorama, una evaluación de este tipo puede convertirse en una especie de centro de intercambio de pruebas, en el que el organismo internacional que la respalda y el número de países participantes pueden añadir credibilidad al discurso político y a las directrices que emanan de ella. Como ya se ha mencionado, esto es más importante cuando “la revelación de la fuente de información para defender la credibilidad de las pruebas, es decir, la referencia, se ha vuelto tan importante, si no más, que la propia información” (Liu y Steiner-Khamsi 2022, p. 6).
Esto no significa necesariamente que más países vayan a unirse a las evaluaciones internacionales a gran escala como resultado de este enfoque de los Objetivos de Desarrollo Sostenible. Tampoco que, una vez que un país se adhiera a una de estas evaluaciones, seguirá ciegamente las directrices políticas que emanen de ella. De hecho, un análisis cuantitativo de las tasas de repetición de curso en diecinueve países latinoamericanos entre 2000 y 2018 muestra una correlación entre participar en PISA y experimentar una reducción más rápida de la repetición. Pero es probable que esto se explique por el propio diseño de la evaluación, transversal y basado en la edad en lugar del grado, más que por su discurso sobre la repetición (Cardoso 2022a).
Años después de crear regímenes de cuantificación en todos los niveles de una administración -escolar, distrital, nacional y mundial-, la pregunta ha pasado a ser: ¿cómo utilizar estas masas de datos en la práctica real? La gran brecha que se abre entre la producción y el uso de datos para la política y la planificación en materia de educación ha sido estudiada por la División de Educación 2030 de la UNESCO (Steiner-Khamsi, Faul, Baek, Numa Hopkins y Iwabuchi, en prensa). En la cooperación internacional, la fijación de objetivos o la evaluación comparada mediante indicadores se ha convertido en un instrumento clave de la gobernanza mundial. Basándose en ejemplos de tres ámbitos políticos del Reino Unido -el control de la inmigración, el cambio climático y los contratos públicos de defensa- Boswell, Yearley, Fleming, Rodrigues y Spinardi (2015) analizan cómo la fijación de objetivos, medidos y supervisados mediante indicadores de rendimiento, tiene un triple efecto sobre las opciones políticas: a) reducen el universo de opciones porque tienen que cumplir una serie de criterios de gestión, políticos y técnicos, b) desplazan los debates políticos y las acciones organizativas alternativas y, por último, una vez adoptados, c) inmovilizan a los gobiernos.
A falta de poder regulador y de coerción, las organizaciones intergubernamentales recurren a la gobernanza basada en el conocimiento. La prueba PISA de la OCDE se presta como ejemplo de cómo se utiliza el instrumento político de la comparación internacional para generar o aliviar, respectivamente, la presión reformista sobre los gobiernos (Waldow y Steiner-Khamsi, 2019; Martens y Jacobi, 2010; Niemann y Martens 2018; Grek, 2020; Grek e Ydesen, 2021). Por supuesto, es necesario cuestionar lo “suave” que es realmente comparar, nombrar y avergonzar a los países en las tablas clasificatorias, y el carácter “duro” o significativo que realmente tienen los “hechos” numéricos si se despojan de su narrativa (Espeland y Sauder, 2016). Como ya se ha mencionado, precisamente porque las clasificaciones y las puntuaciones están descontextualizadas, pueden recontextualizarse y llenarse de un nuevo significado político.
La literatura sobre sociología de la cuantificación ofrece marcos interpretativos útiles para medir y conceptualizar regímenes de cuantificación, como las organizaciones intermediarias que participan en la gobernanza por cifras (Mennicken y Espeland, 2019). El efecto lock-in, descrito astutamente por Boswell, Yearley, Fleming, Rodrigues y Spinardi (2015) para el contexto del Reino Unido y mencionado anteriormente, es una de las principales razones para la fijación de objetivos en el contexto de la gobernanza mundial, como se evidencia en la propuesta de Marco Indicativo del Banco Mundial, presentada hace más de una década (Bruns, Filmer y Patrinos, 2011). Como medida de rendición de cuentas, las cifras y los indicadores se han convertido así en un componente clave de los acuerdos formales entre los distintos niveles de la administración, incluidos los niveles nacional, regional y mundial.
Referencias bibliográficas
Acosta, F. y Ruiz, G. (2018). Revisiting comparative education in Latin America: traditions, uses, and perspectives. Comparative Education, 54(1), 62-76.
Bengtsson, J. (2008). OECD’s Centre for educational research and innovation. 1968 to 2008. Paris: Centre for Educational Research and Innovation.
Birch, K. y Muniesa, F. (Eds.) (2020). Assetization. Turning Things into Assets in Technoscientific Capitalism. Cambridge: MIT Press.
Boswell, C., Yearley, S., Fleming, C., Rodrigues, E. y Spinardi, G. (2015). The effects of targets and indicators on policy formulation: narrowing down, crowding out and locking in. En A. J. Jordan y R. Turnpenny (Eds.), The tools of policy formulation. Actors, capacities, venues and effects (pp. 225-244). Cheltenham: Edward Elgar Publishing.
Brewer, W. (1971). Victor Cousin as a comparative educator. Teachers College, Columbia University: Teachers College Press.
Brickman, W. (2010). Comparative Education in the Nineteenth Century [reprinted]. European Education, 42(2), 46-56.
Bruns, B., Filmer, D. y Patrinos, H. A. (2011). Making Schools Work. New Evidence on Accountability Reforms. Washington DC: World Bank.
Bu, L. (1997). International activism and comparative education: Pioneering efforts of the International Institute of Teachers College, Columbia University. Comparative Education Review, 41(4), 413-434.
Cardoso, M. E. (2020). Policy evidence by design: International large-scale assessments and grade repetition. Comparative Education Review, 64(4), 598-618.
Cardoso, M. E. (2022a). Policymaking to the test? How international large-scale assessments (ILSAs) influence repetition rates. International Studies in Sociology of Education, 31, 1-26.
Cardoso, M. E. (2022b). Policy Evidence by Design: How International Large-Scale Assessments Influence Repetition Rates (Tesis Doctoral). Columbia University.
Clarke, M. (2012). What matters most for student assessment systems: A framework paper. SABER-Student Assessment Working Paper, 1. Washington DC: The World Bank.
Cussó, R. (2006). Restructuring UNESCO’s statistical services. The “sad story” of UNESCO’s education statistics: 4 years later. International Journal of Educational Development, 26(5), 532-544.
Cussó, R. (2016). From statistics to international quantification: a dialogue with Alain Desrosières. En I. Bruno, F. Jany-Catrice y B. Touchelay (Eds.), The Social Sciences of Quantification (pp. 55-65). Springer International Publishing.
Cussó, R. y D’Amico, S. (2005). From Development Comparatism to Globalization Comparativism: Towards More Normative International Education Statistics. Comparative Education, 41(2), 199-216.
Deci, E. y Ryan, R. (1975). Intrinsic motivation. New York: John Wiley & Sons Inc.
Desrosières, A. (1998). The Politics of Large Numbers: A History of Statistical Reasoning. Cambridge, Massachusetts: Harvard University Press.
Elfert, M. e Ydesen, C. (2023). Global governance of education. The historical and contemporary entanglements of UNESCO, the OECD and the World Bank. Dordrecht: Springer.
Espeland, W. N. y Sauder, M. (2016). Engines of anxiety: Academic rankings, reputation, and accountability. New York: Russell Sage Foundation.
Foucault, M. (1991). Governmentality. En G. Burchell, C. Gordon y P. Miller (Eds.), The Foucault Effect. Studies in Governmentality (pp. 87-104). Chicago: University of Chicago Press.
Fraser, S. (1964). Jullien's Plan for Comparative Education, 1816-1817. Comparative Policy Studies. New York: Teachers College Press.
Gautherin, J. (1993). Marc-Antoine Jullien (‘Jullien de Paris’), 1775 - 1848. Prospects, 23(3-4), 757-773.
Giraud, J. (1975). Marc‐Antoine Jullien de Paris (1775‐1848). Paedagogica Historica, 15(2), 379-405.
Goodenow, R. (1990). The progressive educator and the Third World: a first look at John Dewey. History of Education, 19(1), 23-40.
Granovetter, M. S. (1973). The Strength of Weak Ties. American Journal of Sociology, 78(6), 1360-1380.
Grek, S. (2020). Facing “a tipping point”? The role of the OECD as a boundary organization in governing education in Sweden. Education Inquiry, 11(3), 175-195.
Grek, S. e Ydesen, C. (2021). Where science met policy: governing by indicators and the OECD’s INES programme. Globalisation, Societies and Education, 19(2), 122-137.
Guadalupe, C. (2015). Contar para que cuente: una introducción general a los sistemas de información educativa. Lima: Universidad del Pacífico.
Heyneman, S. P. (1999). The sad story of UNESCO’s education statistics. International Journal of Educational Development, 19(1), 65-74.
Heyneman, S. P. y Lee, B. (2013). The impact of international studies of academic achievement on policy and research. En L. Rutkowski, M. von Davier y D. Rutkowski (Eds.), Handbook of International Large-Scale Assessment: Background, Technical Issues, and Methods of Data Analysis (pp. 37-74). New York: Chapman and Hall/CRC.
Jones, P. (2004). Taking the Credit: Financing and Policy Linkages in the Education Portfolio of the World Bank. En G. Steiner-Khamsi (Eds.), The Global Politics of Educational Borrowing and Lending (pp. 188–200). New York: Teachers College Press.
Jones, T. (1922). Education in Africa: A study of West, South, and equatorial Africa by the African Education Commission, under the auspices of the Phelps-Stokes Fund and foreign mission societies of North America and Europe. New York: Phelps-Stokes Fund.
Jullien de Paris, M.-A. (1817). Esquisse d’un ouvrage sur l’éducation comparée. Translated and commented version reprinted in Fraser, S. (1964). Jullien’s Plan for Comparative Education, 1816–1817. Comparative Policy Studies. New York: Teachers College Press.
Kadzamira, E. y Rose, P. (2003). Can free primary education meet the needs of the poor? Evidence from Malawi. International Journal of Educational Development, 23(5), 501-516.
Kamens, D. y Benavot, A. (2011). National, regional and international learning assessments: Trends among developing countries, 1960–2009. Globalisation, Societies and Education, 9(2), 285-300.
Kandel, I. (1942). International Cooperation in Education: An Early Nineteenth Century Aspiration. The Educational Forum, 7(1), 23-29.
Kandel, I. (1944). The 1944 Kandel Report on Education. Reprinted in The Jamaica Gleaner, October 19 and 20, 1999.
Kelly, G. (1992). Debates and trends in comparative education. En R. Arnove, P. Altbach y G. Kelly(Eds.), Emergent issues in education: Comparative perspectives (pp. 13-22). Albany: SUNY Press.
Komljenovic, J. (2020). The future of value in digitalized higher education: why data privacy should not be our biggest concern. Higher Education, 83, 119–135.
Komljenovic, J. y Robertson, S. L. (2016). The dynamics of “market-making” in higher education. Journal of Education Policy, 31(5), 622-636.
Lawn, M. (Ed.) (2008). An Atlantic crossing? The work of the International Examination Inquiry, its researchers, methods and influence. Oxford: Symposium Books Ltd.
Lenhard, V. (Ed.) (2015). Die erste Schrift zur Vergleichenden Erziehungswissenschaft / The First Treatise in Comparative Education. Fridericus Augustus Hechius: De re scholastica Anglica cum Germanica Comparata (1795 . 1798). Frankfurt: M. Lang.
Liberman, J. y Clarke, M. (2012). Review of World Bank support for student assessment activities in client countries. Washington DC: The World Bank.
Liu, J. y Steiner-Khamsi, G. (2022). Reasons for Participation in International Large-Scale Assessments. En T. Nilsen, A. Stancel-Piątak y J-E. Gustafsson (Eds.), International Handbook of Comparative Large-Scale Studies in Education: Perspectives, Methods and Findings (pp. 1-19). Cham: Springer International Publishing.
Lubienski, C. (2019). Advocacy Networks and Market Models for Education. En M. Parreira do Amaral, G. Steiner-Khamsi y C. Thompson (Eds.), Researching the Global Education Industry. Commodification, the Market and Business Involvement (pp. 69-86). Cham: Springer International Publishing.
Martens, K. y Jakobi, A. (Eds.) (2010). Mechanisms of OECD governance . international incentives for national policy making. Oxford: Oxford University Press.
Martin, M. y Kelly, D. (1996). Third International Mathematics and Science Study. Technical Report. Volume I: Design and Development. Chestnut Hill: Boston College.
Mennicken, A. y Espeland, W. N. (2019). What’s new with numbers? Sociological approaches to the study of quantification. Annual Review of Sociology, 45, 223-245.
Monroe, P., Paez, J. y Duggan, S. (1925). A Survey of the Educational System of the Philippine Islands by the Board of Educational Survey. Manila: Bureau of Printing.
Mundy, K., Green, A., Lingard, B. y Verger, A. (Eds.) (2016). Handbook of Global Education Policy. Somerset: John Wiley & Sons.
Niemann, D. y Martens, K. (2018). Soft governance by hard fact? The OECD as a knowledge broker in education policy. Global Social Policy, 18(3), 267-283.
Novoa, A. y Yariv-Mashal, T. (2003). Comparative research in education: A model of governance or a historical journey? Comparative Education, 39(4), 423-438.
Nowotny, H., Scott, P. y Gibbons, M. (2001). Re-thinking Science: Knowledge and the Public in an Age of Uncertainty. Cambridge: Polity Press.
OECD. (2010). PISA 2009 results: what students know and can do: student performance in reading, mathematics and science (volume I). Paris: OECD.
Pizmony-Levy, O. (2013). Testing for All: The Emergence and Development of International Assessment of Student Achievement, 1958-2012 (Tesis Doctoral). Indiana University.
Pollack, E. (1993). Isaac Leon Kandel. 1881-1965. Prospects, 23(3-4), 775-787.
Rose, P. (2015). Is a global system of international large-scale assessments necessary for tracking progress of a post-2015 learning target? Compare, 45(3), 486-490.
Seitzer, H., Baek, C. y Steiner-Khamsi, G. (2023). Instruments of Lesson-Drawing: Comparing the Knowledge Brokerage of the OECD and the World Bank. Policy Studies, 44(1), 1-21.
Smyth, J. (2008). The origins of the international standard classification of education. Peabody Journal of Education, 83(1), 5-40.
Smith, W. C. (2019). One Indicator to Rule Them All: How SDG 4.1.1 Dominates the Conversation and What It Means for the Most Marginalized. En A. W. Wiseman (Ed.), Annual Review of Comparative and International Education 2018 .International Perspectives on Education and Society, Vol. 37) (pp. 27-34). Bingley: Emerald Publishing Limited.
Sobe, N. (2002). Travel, social science and the making of nations in early 19th century comparative education. En M. Caruso y H-E. Tenorth (Eds.), Internationalisation: Comparing Educational Systems and Semantics (pp. 141-166). Frankfurt am Main: Peter Lang.
Speich Chassé, D. (2016). The Roots of the Millennium Development Goals: A Framework for Studying the History of Global Statistics. Historical Social Research, 41(2), 218-237.
Steiner-Khamsi, G. (2009). International Knowledge Banks in Education: Catalysts for competition, coercion and convergence. En D. Junker, W. Mausbach y M. Thundert (Eds.), State and Market in a Globalized World. Transatlantic Perspectives (pp. 251-270). Heidelberg: Universitätsverlag Winter.
Steiner-Khamsi, G. (2013). What is Wrong with the “What-Went-Right” Approach in Educational Policy? European Educational Research Journal, 12(1), 20-33.
Steiner‐Khamsi, G. y Quist, H. (2000). The politics of educational borrowing: Reopening the case of Achimota in British Ghana. Comparative Education Review, 44(3), 272-299.
Steiner-Khamsi, G., Faul, M., Baek, C., Numa Hopkins, A. and Iwabuchi, K. (en prensa). Strategic Review: Improving the Use of Evidence for Education Policy, Planning and Implementation. Paris: UNESCO.
Stone, D. (Ed.) (2000). Banking on Knowledge: The Genesis of the Global Development Network. London: Routledge.
Teltemann, J. y Klieme, E. (2016). The impact of international testing projects on policy and practice. En G. Brown y L. Harris (Eds.), Handbook of human and social conditions in assessment (pp. 369-386). New York: Routledge.
UIS (2016). Sustainable Development Data Digest: Laying the Foundation to Measure Sustainable Development Goal 4. Montreal: UNESCO-UIS.
Wagemaker, H. (2013). International large-scale assessments: From research to policy. En L. Rutkowski, M. von Davier y D. Rutkowski (Eds.), Handbook of International Large-Scale Assessment: Background, Technical Issues, and Methods of Data Analysis (pp. 11-36). New York: Chapman and Hall/CRC.
Waldow, F. y Steiner-Khamsi, G. (Eds.) (2019). Understanding PISA’s Attractiveness: Critical Analyses in Comparative Policy Studies. London: Bloomsbury.
Weber, M. S. y Yanovitzky, I. (2021). Knowledge Brokers, Networks, and the Policymaking Process. En M. S. Weber e I. Yanovitzkt (Eds.), Networks, Knowledge Brokers and the Public Policymaking Process (pp. 1-25). New York: Palgrave.
Zapp, M. (2017). The World Bank and Education: Governing (through) knowledge. International Journal of Educational Development, 53, 1-11.
Zapp, M. (2021). The authority of science and the legitimacy of international organizations: OECD, UNESCO and World Bank in global education governance. Compare, 51(7), 1022-1041.
Notas
Recepción: 12 Marzo 2023
Aprobación: 11 Mayo 2023
Publicación: 01 Junio 2023