LAS RAZONES DEL APRENDER. EL ROL DE LA EVALUACIÓN EDUCATIVA EN LA ESTRATEGIA DE COMUNICACIÓN GUBERNAMENTAL

.

.

Por: Stella Escandell*    –   Fuente: http://iice.institutos.filo.uba.ar

Todos los números públicos son elementos poderosos, y los de la educación no escapan a la regla. Daniel (2013) sostiene que se los consagra como manifestaciones directas de la realidad, que operan como referencias fijas y perdurables para ordenar la discusión y organizar las relaciones sociales y la convivencia social, expresando  significados sociales profundos que acarrean efectos políticos concretos ya que tienen la
capacidad de configurar la realidad que miden.

En las últimas tres décadas, las evaluaciones estandarizadas para medir los aprendizajes de los estudiantes de la educación básica han adquirido un papel relevante en el campo de la educación. Sus resultados han ido ocupando, lentamente, en el imaginario social el lugar de una medida que ofrece una visión agregada sobre la calidad de educación de cada país. Esto sucede también en Argentina, en donde este tipo de evaluaciones lleva 25 años aplicándose, primero bajo el rótulo de Operativos Nacionales de Evaluación (ONE); y desde 2016 denominada APRENDER.

Esto ha sido posible por múltiples razones; la primera de ellas responde a que en el contexto de una expansión de la educación en términos cuantitativos (Miranda, 2008) se manifiestan dudas respecto de las condiciones sociales y pedagógicas de los aprendizajes (Tenti Fanfani, 2008). La segunda razón es la inexistencia de un consenso acerca del significado de la noción de calidad educativa (OREALC, 2007a; Tawil, Akkari y Macedo, 2012), primando una visión que asimila calidad a logros de aprendizaje.
Una tercera razón refiere a que los resultados de las evaluaciones estandarizadas representan para los medios de comunicación, una información fácilmente reductible a noticia y susceptible de ser comprendida por vastas audiencias (Brunner, 2003; Granovsky, 2003), por lo que cuando los gobiernos o las agencias especializadas los dan a conocer pasan a ocupar un lugar central en los medios de comunicación, particularmente en la prensa escrita que oficia, a su vez, de generadora de contenidos para otros canales audiovisuales, radiales y electrónicos. Granovsky (2003) señala que, sobredimensionada originalmente por los propios ministerios de educación, la evaluación de aprendizajes logró ascender “en el ranking de la agenda pública hasta paragonarse con la mismísima
política educativa” convirtiéndose en un fetiche, en una imagen que reemplaza al objeto (Granovsky, 2003:99). Daniel (2013) agrega que su permanencia en la esfera pública está andamiada por la incorporación de los números públicos en los discursos de formadores de opinión o de personajes reconocidos.
El modo en que los gobiernos educativos incorporan en su agenda educativa estas evaluaciones es central. En nuestro país resulta clave el rol del ministerio nacional en la generación de construcciones simbólicas en torno a la evaluación, no solo para el sistema educativo sino para la sociedad (Escandell, 2016); a su vez, la política de evaluación educativa, como toda política pública, es esencialmente argumentativa ya que es a través de relatos y discursos donde se expresan, se defienden y se contestan las políticas (Majone, 1997; Fischer y Forester 1993). Aún las estadísticas y los números públicos se constituyen en artefactos políticos, lejos de su pretendida neutralidad (Fischer, 2003).
Entre 2010 y 2015, las evaluaciones estandarizadas tuvieron el carácter de mito o ceremonia (Meyer y Rowan, 1977); el sostenimiento de su implementación le permitía construir una reputación frente a la sociedad y los medios de comunicación, dado el peso que estos dispositivos habían adquirido. Era políticamente correcto contar con los ONE, participar de PISA o de los operativos regionales de evaluación de UNESCO aun cuando al interior del Ministerio este tipo de evaluaciones no gozarán de buena reputación ni fuesen consideradas en general —salvo algunas excepciones— como proveedores de información para orientar la toma de decisiones. Cuando los resultados eran satisfactorios, servían además como elemento de legitimación de la gestión como fue el caso del ONE
2010 (Escandell, 2016).

Pero este modelo entra en tensión cuando los resultados no evolucionan positivamente, como ha sucedido en ONE 2013, en donde se registraron variaciones estadísticamente significativas respecto de los resultados del ONE 2010 (Escandell, 2016). Se minimizó la dimensión netamente política que tiene la evaluación, dada por cómo las acciones llevadas adelante y los responsables de estas son representados y evaluados en la arena política; y en la cual prevalecen más que los resultados, la construcción política de éstos en la que intervienen otros actores (Bovens, Hart y Kuipers, 2006).
En contraste, la actual gestión colocó a que la evaluación como una suerte de primus inter pares respecto del resto de las acciones ministeriales. En efecto, se convirtió al dispositivo nacional de evaluación estandarizada de aprendizajes en la piedra angular de la gestión educativa; imprimiéndole un nuevo nombre —APRENDER—, y convirtiéndolo en una pieza central de la comunicación gubernamental. La comunicación como acción con propósito en el marco de un determinado contexto social (Thompson, 1998), se supone en el campo de la política como una estrategia pues se realiza para lograr algo (Canel, 2006). En el campo gubernamental, la comunicación resulta fundamental pues abona, en lo interno, a la construcción de un significado compartido que permite mejorar la eficacia de la acción estatal; en lo externo, está dirigida a generar consensos sobre la acción de gobierno (Riorda, 2006). Así, el énfasis puesto en el dispositivo APRENDER estuvo en función de tres propósitos íntimamente relacionados: diferenciarse de la gestión anterior, construir reputación e instalar la idea de una necesaria rendición de cuentas centrada en la evidencia producto de la evaluación, asociando
calidad a resultados de aprendizaje.
La creación de una Secretaría específica de Evaluación es una muestra del rol gravitante que se buscó imprimirle a la evaluación, jerarquizando institucionalmente su lugar en el organigrama ministerial para distinguirse de la gestión anterior en donde era competencia de un Departamento de una Dirección Nacional. Una de las primeras acciones de la Secretaría de Evaluación fue la elaboración de un documento diagnóstico sobre el ONE 2013 planteando una serie de limitaciones y consideraciones metodológicas para el análisis y difusión de sus resultados. A la par propició la aprobación de una nueva resolución del Consejo Federal de Educación (Resolución CFE280/16) creando un Sistema de Evaluación Nacional de la Calidad y Equidad Educativa compuesto por la
evaluación de aprendizajes, la autoevaluación de las instituciones de la educación obligatoria, la evaluación de programas y proyectos, y el fortalecimiento federal de las capacidades estatales. En lo que respecta a la evaluación en sí, se buscó darle un lugar protagónico a los cuestionarios de contexto, se convirtió en censal la evaluación del 6º grado de primaria y se anunció en los medios una frecuencia anual de evaluación al menos del último año de la secundaria. Con el tiempo, al APRENDER se le fueron sumando nuevos productos: Autoevaluación APRENDER, la evaluación ENSEÑAR para estudiantes del último año de las carreras de formación docente de Educación Primaria y de materias correspondientes al ciclo básico de la Educación Secundaria, y más recientemente la autoevaluación en institutos de formación docente. Sin embargo, la evaluación de procesos de gestión y de políticas y programas ha sido un capítulo ausente salvo en lo que respecta a los de la gestión anterior como el caso del plan FINES y de los Centros de Actividades Juveniles (éste último sin publicarse). 

La construcción de reputación estuvo fuertemente anclada en una primera instancia en la devolución de resultados en un corto plazo, con productos para las diferentes audiencias, reforzándose la devolución electrónica de resultados a las escuelas participantes que se había iniciado en 2010. Para permitir mayor celeridad, se acortaron las pruebas y se eliminaron los ítems abiertos. De este modo entre la implementación de la evaluación y la publicación de los resultados mediaron cinco meses en contraste con el año o más que insumía en la gestión anterior. En lo que hace a la visibilidad, se puso especial énfasis en la difusión pública de la realización de la primera evaluación, en el diseño de una gráfica y logotipo específicos para crear una imagen institucional del APRENDER y la implementación de un sistema abierto de consultas que permite procesar en línea información a partir de algunas de las variables en juego. Finalmente, la transformación de una instancia técnica que habitualmente pasa desapercibida —el establecimiento de los puntos de corte que determinan el encuadramiento de los resultados en diferentes niveles de desempeño—en un evento federal a partir de la convocatoria a docentes de todo el país, que buscó fundar la idea de una mayor democratización del proceso. Sin embargo, al igual que en la gestión anterior, la alteración de los años educativos y áreas alcanzados
por la evaluación, de la frecuencia y de ciertas cuestiones técnicas ha llevado a advertencias por parte de algunos acerca de la necesidad de una mayor rigurosidad técnica del dispositivo (Clarín, 9/10/18). En igual sentido, las restricciones metodológicas que hicieron que los resultados del operativo Enseñar no fueran representativos a nivel nacional, y jurisdiccional en varios casos, también constituyen elementos de alerta.

La evaluación en el Estado forma parte del proceso de accountability1 entendiéndoselo como la obligación de dar evidencia de lo actuado, principalmente a la ciudadanía, y está asociada al mismo acto de gobernar (Frigerio et al., 1992). Este rasgo reafirma la dimensión política de la evaluación, que viene dado tanto por su carácter instrumental como soporte para los procesos de toma de decisiones (Elola y Toranzos, 2000; 2009) como por el hecho de que la evaluación pone en juego una valoración. El concepto de “juicio evaluativo” utilizado por Bertoni, Poggi y Teobaldo (2009) en relación con las evaluaciones educativas remite al hecho de que una concepción amplia de la evaluación implica la atribución de un juicio a una realidad observada, cuya valoración es construida por el sujeto que evalúa. Niremberg (2005) resalta además que el juicio evaluativo debe ser fundado y comunicable; pero como señala Subirats (1995), es difícil mantener una separación estricta entre la política (entendida en el sentido de politics y no de policy) y la evaluación, porque la evaluación sirve para efectuar un cierto juicio de valor que, aunque se trate de que sea objetivo, implica adoptar una posición particular.
En la actual gestión se ha resaltado el valor de las evidencias que arrojan las evaluaciones de aprendizajes pero se han invisibilizado los indicadores relacionados con el acceso, permanencia y egreso de los estudiantes o los que hacen a las condiciones institucionales en las que se desarrolla el proceso de enseñanza-aprendizaje. Los datos estadísticos acerca de repitencia, abandono, promoción, matrícula y egreso son públicos pero carecen de una problematización similar a la que se registra en torno a los aprendizajes. Como lo señala Majone (1997:45) “la evidencia no es lo mismo que los datos o la información. Es una información seleccionada de entre el conjunto disponible e introducida en cierto punto del argumento para persuadir a un auditoria de la verdad o falsedad de una afirmación”. No existe un único tipo de evidencia, por lo que el tipo de evidencia que se prioriza responde a un contexto y a un determinado marco conceptual, lo que implica una necesaria mirada sobre quien tiene el poder para definir cuál es el tipo de evidencia reconocida (Weselink, Colebatch y Pearce, 2015). A su vez la evidencia es solo uno de los factores que moldea las decisiones (Levin, B., 2001:7; Feinstein, 2006); la complejidad de la toma de decisiones en democracia implica que muchos actores formen parte de este proceso político con presiones, apoyos y/o sugerencias para la implementación de tal o cual solución y no es solo la evidencia producto de evaluaciones lo que cuenta (Weiss, 1999). Esto no implica menoscabar el papel de las evaluaciones y su utilidad, que es el propósito primario de las mismas, sino que alerta sobre la necesidad de ubicarlas en perspectiva en el marco mayor de los procesos políticos.
El acompasamiento de la publicación de resultados de APRENDER con el momento de negociación paritaria así como la demora en la difusión de los resultados de la evaluación Enseñar para que se corresponda con la polémica aprobación por parte del CFE de una Comisión Nacional de Evaluación y Acreditación de la Calidad de la Formación Docente (CNEAC) induce a pensar, como señala UNIPE (2019), que las evaluaciones han tenido también una agenda oculta: cuestionar la imagen pública de los docentes y sus representaciones sindicales, deslizando sutilmente la responsabilidad hacia estos actores en los resultados alcanzados.
La evaluación concebida como elemento de accountability institucional en una dimensión de aprendizaje requiere no solo de resultados sino de la puesta en marcha asociada de políticas (Bovens, 2007). No obstante, la generación de políticas que respondan a la información obtenida no necesariamente ha acompañado en tiempo y forma a la evidencia producida. Un ejemplo es el fortalecimiento de los aprendizajes en matemática: a pesar de que desde hace varios años se advierte un problema en dicha área la actual gestión (al asumir) eliminó el plan de matemática preexistente en primaria, el cual había contado con una evaluación externa positiva, y demoró más de tres años en generar un nuevo plan. Otro ejemplo podría ser la ausencia de una mirada integral hacia el nivel primario en momentos que se registra un incremento de las tasas de repitencia del nivel.
Más allá de todo lo señalado, es innegable el éxito comunicacional de la instalación de la evaluación como elemento central de una “accountability” restringida a APRENDER, asociando calidad a resultados de aprendizaje, como elemento de diferenciación respecto de la gestión anterior, y para construir reputación. El concepto de encuadre propuesto por la teoría del framing de uso en el análisis de la comunicación política puede resultar útil para aproximarnos a este suceso.
Aruguete (2017:40) señala que “hay esquemas de pensamiento disponibles en la memoria de las personas que interactúan con los mensajes noticiosos”. Cuando los marcos (frames) que emplea la comunicación gubernamental (y los periodistas) para propiciar una noticia se nutren de estos esquemas, “sirven para enlazar, fortalecer o modificar símbolos comunes que conforman y mantienen la memoria colectiva de una comunidad” (Amadeo, 2008: 231). Valenti et.al. (2015: 39) señalan que “además de definir problemas, el proceso de framing tiene como componente clave el manejo de las
fuentes de información 2
. Su presencia en los mensajes provee información que complementa la perspectiva desde la cual se diagnostica el asunto y el tipo de soluciones que promueve dicho discurso.”

En el imaginario de la sociedad argentina está muy presente un pasado dorado de la educación asociado al mérito que hacían aquellos que se esforzaban, olvidando que no todos los sectores sociales —particularmente en la secundaria— podían acceder a la educación. De hecho recién en la década del 90 se tornó obligatorio el primer ciclo de la secundaria con la Ley Federal de Educación y recién a partir de 2006 con la Ley de Educación Nacional todo el nivel. Esta idea, que sigue perdurando, es de algún modo desde donde se monta la comunicación de APRENDER, obviando que la igualdad de oportunidades es una condición necesaria pero no suficiente para la construcción de un orden justo, ya que una sociedad meritocrática no reduce ni elimina niveles actuales de desigualdad, sino que simplemente redistribuye las probabilidades de estar en el grupo
más aventajado (Cociña, 2013).
Sin embargo, en lo inmediato, la educación argentina además de contar con una política de evaluación (que debiera sea más amplia), requiere de una mirada sistémica que recupere una idea de calidad educativa en la que no solo importen los logros de aprendizaje alcanzados sino también los avances y desafíos en materia de equidad en el acceso, permanencia y egreso de los estudiantes, y la eficacia de políticas públicas para revertir la condiciones desiguales del sistema, entre otras cuestiones; siempre apostando por la educación de gestión estatal.

Bibliografía
Amadeo, Belén (2008) “Framing: Modelo Para Armar “ En Riccitelli, Teresa (2008) Los medios aliados o enemigos del público?: derivaciones de las teorías de las comunicaciones surgidas en los setenta. Capítulo 5. Buenos Aires: EDUCA
Aruguete, Natalia (2017) “Agenda Setting y Framing: Un Debate Teórico Inconcluso”. En Más Poder Local Magazine. Revista de comunicación política e institucional. Número 30, Enero 2017, pp 36-42 Recuperado el 19/5/19 de http://www.maspoderlocal.es/ediciones/la-puja-por-las-agendas-no30/
Bertoni Alicia; Poggi, Margarita; Teobaldo, Marta (2009) “Evaluación: nuevos significados para una práctica compleja”. En MEN (2009) Hacia una cultura de la Evaluación. ONE 2009. Censo. Ministerio de Educación de la Nación. Buenos Aires. pp. 7-14. Recuperado el 20/7/14 de
http://repositorio.educacion.gov.ar/dspace/bitstream/handle/123456789/55314/ EL002395.pdf?sequence=1
Bovens, Mark; Hart,Paul ’t; Kuipers, Sanneke (2006) ”The Politics of Policy Evaluation” En Moran, Michael; Rein, Martin; Goodin, Robert E. (Edits.) The Oxford Handbook of Public Policy. New York. Oxford University Press, pp. 319-335.
Bovens Mark (2007) Analysing and Assessing Accountability: A Conceptual Framework. En European Law Journal, Vol. 13, No. 4, July 2007, pp. 447–468. Blackwell Publishing Oxford
Braginski, Ricardo (9 de octubre de 2018) Cambios a un instrumento de política pública.
El Gobierno bajará la frecuencia de las evaluaciones de la calidad educativa. Clarín.
Recuperado el 19/5/2019 de https://www.clarin.com/sociedad/gobierno-bajara-frecuenciaevaluaciones-calidad-educativa_0_IDKuWT-BP.html
Brunner, José Joaquín (2003) “Límites de la lectura periodística de resultados
educacionales”. En IIPE-UNESCO (2003) Evaluar las Evaluaciones. Una mirada
política acerca de las evaluaciones de la calidad educativa. Instituto Internacional de
Planeamiento de la Educación IIPE – UNESCO. Sede Regional Buenos Aires. pp. 67-84.
Canel, María José (2006) Comunicación política. Una guía para su estudio y su práctica.
Madrid: Ed. Tecnos.
Cociña, Matías (7 de junio de 2013) “Cinco argumentos contra la Meritocracia”. Santiago
de Chile: Centro de Investigación Periodística (CIPER). Recuperado el 19/5/2019 de
https://ciperchile.cl/2013/06/07/cinco-argumentos-contra-la-meritocracia/
Daniel, Claudia (2013) Números públicos. Las estadísticas en Argentina (1990-2010).
Buenos Aires. Fondo de Cultura Económica.
Elola Nydia; Toranzos Lilia (2000) Evaluación educativa: una aproximación conceptual.
Buenos Aires. Mimeo. Julio 2000. Recuperado el 22/8/14 de
http://www.oei.es/calidad2/luis2.pdf
Elola Nydia; Toranzos Lilia (2009) “Evaluación educativa: una aproximación
conceptual”. En MEN(2009) Hacia una cultura de la Evaluación. ONE 2009. Censo.
Ministerio de Educación de la Nación. Dirección Nacional de Información y Evaluación
de la Calidad Educativa. Buenos Aires. pp. 15-16. Recuperado el 16/2/15 de
http://portales.educacion.gov.ar/diniece/2014/01/06/informe-de-resultados-censo-ymuestras-one-2010/
Escandell, Stella (2016) Operativos Nacionales de Evaluación: su incidencia en el proceso
de toma de decisiones en el Ministerio de Educación Nacional (2010–2015). Trabajo final
de la Maestría en Administración Pública de la FCE-UBA.
Feinstein Osvaldo (2006) “Evaluación pragmática de políticas públicas”. En Información
Comercial Española, Revista de Economía. Madrid: Ministerio de Economía y
Competitividad. Mayo-Junio 2007. Nº 836
Fisher, Frank y Forester, John ed. (1993) The Argumentative Turn in Policy Analysis and
Planning. Londres: UCL Press
Fischer, Frank (2003) Reframing Public Policy. Discursive Politics and Deliberative
Practices. Oxford: Oxford University Press
Frigerio, Graciela et.al. (1992) Las instituciones educativas. Cara y Ceca. Elementos para
su gestión. Buenos Aires. Toquel.
Granovsky, Martín (2003) “La evaluación como fetiche”. En IIPE-UNESCO (2003)
Evaluar las Evaluaciones. Una mirada política acerca de las evaluaciones de la calidad
educativa. Instituto Internacional de Planeamiento de la Educación IIPE – UNESCO.
Sede Regional Buenos Aires. pp. 97-110.
Levin Benjamin (2001) Knowledge and action in education policy and politics. Paper
presented to the Conference on Empirical Issues in Canadian Education Ottawa
November, 2001. Recuperado el 6/4/2015 de
http://qed.econ.queensu.ca/pub/jdi/deutsch/edu_conf/levin.pdf
Majone Giacomo (1997) Evidencia, argumentación y persuasión en la formulación de
políticas. México: Fondo de Cultura Económica, Universidad de Guadalajara y Colegio
Nacional de Ciencias y Administración Pública A.C.
Meyer, John W.; Rowan, Brian (1977) “Organizations: Formal structure as myth and
ceremony. John W. Meyer y Brian Rowan. En American Journal of Sociology, Vol. 83
nro. 2 (sept 1977) pp. 340-363
Miranda Ana (2008) “Los jóvenes, la educación secundaria y el empleo a principios del
siglo XXI”. En Revista de Trabajo. Buenos Aires. Año 4, Número 6, Agosto – Diciembre
2008. Ministerio de Trabajo pp. 185-198
Niremberg, Olga (2005) La información social y los desafíos para las políticas sociales.
Cuaderno Nº 48. C E A D E L (Centro de Apoyo al Desarrollo Local) Buenos Aires.
OREALC (2007a). Educación De Calidad Para Todos. Un Asunto De Derechos
Humanos. Documento de discusión sobre políticas educativas en el marco de la II
Reunión Intergubernamental del Proyecto Regional de Educación para América Latina y
el Caribe (EPT/PRELAC) 29 y 30 de marzo de 2007 en Buenos Aires, Argentina.
Santiago de Chile. Oficina Regional para América Latina de UNESCO OREALC).
Riorda Mario (2006) “Hacia un modelo de comunicación gubernamental para el
consenso”. En Elizalde, Luciano; Fernandez Pedemonote, Damián y Riorda Mario (2006)
La Construcción del Consenso. Gestión de la Comunicación Gubernamental. Buenos
Aires: Ed. La Crujía.
Subirats, Joan (1995) “Los instrumentos de las políticas, el debate público y el proceso de
evaluación”. En Gestión y Política Pública. Vol. IV Nº 1. México. Centro de
Investigación y Docencia Económicas A.C. (CIDE). Primer semestre 1995 pp. 5.23.
Tawil, Sobhi; Akkari, Abdeljalil; Macedo Beatriz (2012) “Más allá del laberinto
conceptual. La noción de la calidad en la educación”. En Investigación y prospectiva en
educación/UNESCO. Contribuciones temáticas. Marzo 2012 Nº 2. UNESCO.
Recuperado el 2/2/15 de http://unesdoc.unesco.org/images/0021/002175/217519S.pdf
Tenti Fanfani, Emilio (2008) “Mirar la escuela desde afuera”. En Tenti Fanfani (comp.)
Nuevos temas en la agenda de política educativa. Buenos Aires: Siglo XXI Editores
Thompson, John B. (1998) Los media y la modernidad. Una teoría de los medios de
comunicación. Barcelona: Paidós Ibérica.
UNIPE (2019) “Sobre los usos políticos de las evaluaciones educativas”. En El
Observador. Dossier del Observatorio Educativo de la UNIPE. Año 6, Nº7 Marzo de 2019
Buenos Aires. Universidad Pedagógica Nacional Recuperado el 19/5/19 de
http://observatorio.unipe.edu.ar/attachments/article/84/Dossier-del-ObservatorioEducativo-de-UNIPE-Evaluaciones.pdf
Valenti, Pablo; Lopez-Ghio, Ramiro; Riorda, Mario y Straface, Fernando (2015) Estudio
del perfil de los gobernantes latinoamericanos en redes sociales. Documento para
discusión nº IDB-DP-382. Washington: Banco Interamericano de Desarrollo. Recuperado
el 19/5/2019 de https://publications.iadb.org/publications/spanish/document/Elgobernauta-latinoamericano-Estudio-del-perfil-de-los-gobernantes-latinoamericanos-enredes-sociales.pdf
Weiss Carol (1979) “The many meanings of research utilization”. En Public
Administration Review sept oct 1979. Recuperado el 11/2/15 de:
http://www.ualberta.ca/~dcl3/KT/Public%20Administration%20Review_Weiss_The
%20many%20meanings%20of%20research_1979.pdf.
Weselink, Anna; Colebatch, Han y Pearce, Warren (2015). The evidence on evidencebased policy making: discourses, meanings and practices. ICPP Milan 2015 T08P01
Policy Work Research: Linking Evidence with Theory. Recuperado el 19/5/2019 de
http://www.ippapublicpolicy.org//file/paper/1435480092.pdf

 

 

  • * Politóloga y Mg. Administración Pública UBA, especialista en políticas educativas.
septiembre 3, 2019