En este capítulo se examinan los avances sustanciales de la investigación sobre la enseñanza, al tiempo que se señalan los desafíos que persisten en la construcción de un cuerpo de evidencia más amplio. Se ofrece también una indicación sobre la solidez de la mejor evidencia disponible para cada práctica. Asimismo, se subraya la importancia de avanzar hacia una mayor sinergia entre el conocimiento científico y el conocimiento profesional.
Claves para una enseñanza de alta calidad
7. Avanzando hacia prácticas más fundamentadas en evidencia
Copiar enlace a 7. Avanzando hacia prácticas más fundamentadas en evidenciaResumen
En resumen
Copiar enlace a En resumenLa investigación en educación ha crecido rápidamente en las últimas décadas, lo que plantea interrogantes sobre cómo esta base de evidencia en expansión puede respaldar eficazmente las mejoras educativas.
Se ha investigado mucho sobre el impacto de las 20 prácticas de la Taxonomía de Schools+ en los resultados cognitivos y no cognitivos de los alumnos. Un ejercicio de clasificación, en el que participaron 26 destacados académicos y organizaciones de intermediación del conocimiento, mostró que la evidencia disponible es más sólida para la interacción en el aula y las prácticas de evaluación formativa que para el compromiso cognitivo, la calidad de los contenidos de las asignaturas y el apoyo socioemocional, en parte porque estas áreas son más difíciles de conceptualizar y medir.
Se requiere más investigación para saber qué funciona, dónde, por qué y para quién; y para entender las condiciones en que estas prácticas pueden tener mayor impacto.
Aunque las escuelas parecen interesadas en acceder a la investigación y utilizarla, siguen existiendo barreras y desafíos a la hora de interpretarla y ajustar las prácticas o hábitos establecidos. Las formas más profundas de colaboración, tanto entre docentes y líderes escolares como entre investigadores, en torno a la evidencia y la indagación sobre la propia práctica, siguen siendo limitadas y a menudo desatendidas.
Es necesario prestar más atención no solo a qué es lo que tiene impacto, sino también a cómo se da dicho impacto, mediante el fomento de un proceso dinámico en el que la experiencia profesional y el conocimiento científico se enriquezcan mutuamente.
En las dos o tres últimas décadas, la investigación educativa y la producción de conocimientos han experimentado cambios transformadores. Según estimaciones aproximadas, la producción de artículos de investigación educativa se ha quintuplicado entre 1996 y 2015 (Van Damme, 2022[1]). Esta tendencia se refleja en el aumento del número de actores que trabajan con datos de investigación. Las investigaciones de la OCDE sugieren que el número de estudios sobre movilización del conocimiento en los que se mencionan términos relacionados con los "intermediarios" ha aumentado de menos de 200 estudios el año 2.000 a más de 2.500 estudios en 2021 (Torres and Steponavičius, 2022[2]). Aunque el crecimiento no ha seguido el mismo ritmo en escala y eficiencia que en el área de la salud (Education.org, 2021[3]) sí se ha producido un cambio considerable hacia la creación de una base de evidencia más amplia en el ámbito de la educación.
Esta nueva abundancia de evidencia ha planteado preguntas fundamentales para comprender críticamente cómo puede la evidencia apoyar la mejora de la educación. ¿Qué se considera como evidencia? ¿Cuáles son las características generales de la evidencia actual sobre las prácticas docentes? ¿Cómo puede la comprensión de la interacción más amplia entre las distintas fuentes de conocimiento influir en la toma de decisiones de los docentes y fomentar prácticas en el aula cada vez más fundamentadas en evidencia?
Construyendo evidencia científica sobre la enseñanza en el aula
Copiar enlace a Construyendo evidencia científica sobre la enseñanza en el aulaLo que cuenta como evidencia
El aumento en la producción de investigación plantea la pregunta de qué se considera evidencia. Tomando como ejemplo el ámbito de la salud, la definición de "evidencia de calidad" se ha considerado a menudo de forma jerárquica, con valiéndose de estándares diferenciados basados en el rigor metodológico para identificar el impacto causal (Glover, 2006[4]; Nutley, Powell and Davies, 2013[5]). A menudo se presenta en forma de pirámide (Stimson Library Medical Center of Excellence, n.d.[6]; University of Canberra Library, n.d.[7]) con determinadas metodologías, como los metaanálisis y las revisiones sistemáticas, en la cúspide, seguidas por las réplicas de estudios con diseño experimental y ensayos controlados aleatorizados. Los estudios de casos y los estudios cualitativos suelen considerarse como evidencia de menor calidad (Hoffmann, Bennett and Del Ma, 2017[8]). En conjunto, todas ellas pueden denominarse "conocimiento científico", y las pirámides de evidencia a menudo incluyen otros cuerpos o formas de conocimiento, como el "conocimiento profesional" que se basa en fuentes como la "opinión de expertos" o el "conocimiento experiencial" (véase la Figura 7.1). El primero puede incluir información y evidencia compartidas por colegas durante la evaluación formativa o la observación, mientras que el segundo puede incluir formas más anecdóticas y menos formales, como comportamientos destacados o comentarios directos de los estudiantes, que surgen en el desarrollo cotidiano de las clases o en el contexto más amplio de la escuela. Dado que las metodologías evolucionan y cambian, estas pirámides pueden no ser exhaustivas y se les ha criticado por presentar límites rígidos entre ciertas metodologías (Murad et al., 2016[9]).
Figura 7.1. Pirámide de la calidad de la evidencia según su rigor metodológico
Copiar enlace a Figura 7.1. Pirámide de la calidad de la evidencia según su rigor metodológico
Fuente: : Adaptado de Van Damme (n.d.[10]), Center for Curriculum Redesign, The Challenges of Evidence-Informed Education, https://dirkvandammeedu.net/wp-content/uploads/2024/02/The-Challenges-of-Evidence-informed-Education-CEIPP.pdf, (consultado el 7 agosto 2024).
En la práctica, lo que se considera "evidencia de calidad" puede entenderse de distintas maneras. Por ejemplo, existe una variación notable en la forma en que las organizaciones que evalúan y difunden investigaciones educativas valoran la calidad de la evidencia para los mismos programas de intervención (Wadhwa, Zheng and Cook, 2023[11]). Además, la perspectiva jerárquica de la evidencia refleja la tensión entre establecer relaciones causales y desarrollar una investigación que responda a las necesidades y a las diversas realidades de las escuelas. En los últimos años, se ha prestado cada vez más atención a este aspecto y se ha hecho un mayor esfuerzo por fomentar una mayor pluralidad en la forma de abordar el concepto de evidencia, para reflejar que no existe un único método o tipo de evidencia que sea el mejor. En efecto, el enfoque metodológico más adecuado depende de la pregunta que se busca investigar (Nutley, Powell and Davies, 2013[5]). De hecho, Nutley et al. (2013[5]) han explorado esta cuestión con más detalle y han desarrollado una tipología adaptada que muestra las contribuciones relativas que los diferentes tipos de métodos pueden hacer a los diferentes tipos de preguntas de investigación (véase el Cuadro 7.1). Más recientemente, la Education Endowment Foundation (EEF) (2024[12]) también ha realizado esfuerzos similares y ha publicado una guía en la que se explican los diferentes tipos de evidencias y sus propósitos. Estos esfuerzos apuntan hacia un mayor reconocimiento en la investigación en educación de la potencial multiplicidad de enfoques para hacer crecer la base empírica, desde comprender si una intervención práctica concreta funciona o no, hasta desentrañar realmente cómo puede funcionar, y la variabilidad de esto en diferentes contextos.
Cuadro 7.1. Las metodologías adecuadas dependen de la pregunta de investigación
Copiar enlace a Cuadro 7.1. Las metodologías adecuadas dependen de la pregunta de investigación|
Pregunta de investigación |
Investigación cualitativa |
Encuesta |
Estudios de casos y controles |
Estudios de cohortes |
Ensayos controlados aleatorizados |
Estudios cuasiexperimentales |
Estudios no experimentales |
Revisiones sistemáticas |
|---|---|---|---|---|---|---|---|---|
|
¿Funciona mejor esto que aquello? |
+ |
++ |
+ |
+++ |
||||
|
¿Cómo funciona? |
++ |
+ |
+ |
+++ |
||||
|
¿Es importante? |
++ |
++ |
+++ |
|||||
|
¿Hará más mal que bien? |
+ |
+ |
+ |
++ |
+ |
+ |
+++ |
|
|
¿Estarán los alumnos más interesados o comprometidos con el aprendizaje? |
++ |
+ |
+ |
+ |
+ |
+++ |
||
|
¿Vale la pena hacerlo? |
++ |
+++ |
||||||
|
¿Es esta la oportunidad de aprendizaje adecuada para estos alumnos? |
++ |
++ |
++ |
|||||
|
¿Están satisfechos los estudiantes, las escuelas y las otras partes interesadas? |
++ |
++ |
+ |
+ |
+ |
Nota: El número de signos "+" corresponde al grado de adecuación del tipo de enfoque metodológico para responder a una pregunta de investigación.
Fuente: Adaptado de Nutley, Powell and Davies (2013[5]), What counts as good evidence? Provocation paper for the Alliance for Useful Evidence
Medir la enseñanza y el aprendizaje es especialmente difícil
Medir la enseñanza y el aprendizaje es especialmente complejo. La enseñanza nunca es un proceso lineal, sino que suelen darse simultáneamente muchas prácticas docentes, cada una de las cuales es difícil de desentrañar y aislar individualmente (Pollard, 2010[13]; Leinhardt and Greeno, 1986[14]). La complejidad intrínseca de la enseñanza se ve acrecentada por el contexto en el que tiene lugar. La enseñanza se sitúa en un contexto temporal, social y cultural específico. Por ejemplo, en el aula, el proceso y la calidad de la instrucción pueden variar enormemente de un día para otro (Praetorius, McIntyre and Klassen, 2017[15]; Rowan and Correnti, 2009[16]), y las interacciones con los estudiantes también pueden ser muy variables (Schweig, 2016[17]; Reinholz and Shah, 2018[18]).
Los esfuerzos de investigación se han basado principalmente en mediciones indirectas, como cuestionarios en los que docentes y alumnos informan sobre la presencia o frecuencia de diferentes prácticas docentes (Goldhaber, Gratz and Theobald, 2017[19]; Hill, Kapitula and Umland, 2011[20]). Los cuestionarios son útiles en términos de aplicación y costos. También se han combinado con el análisis de la frecuencia y la calidad de las experiencias de aprendizaje que encuentran los estudiantes, por ejemplo, mediante el análisis de los recursos de aprendizaje (Stacey and Turner, 2015[21]). Sin embargo, estas mediciones indirectas enfrentan una serie de limitaciones, como ser susceptibles al sesgo de deseabilidad social (Goe, Bell and Little, 2008[22]) o a interpretaciones erróneas (Goe and Stickler, 2008[23]). En respuesta a ello, se ha optado por mediciones más directas, como la observación (OECD, 2020[24]). Sin embargo, la observación directa en las aulas sigue siendo metodológicamente desafiante y muy costosa, además de verse limitada por el posible sesgo del observador o porque el proceso de observación puede distorsionar los comportamientos en las aulas (Praetorius, McIntyre and Klassen, 2017[15]; Ho and Kane, 2013[25]).
Mientras tanto, a medida que el uso de metodologías con grupos de control rigurosos se ha vuelto más aceptado y común en educación, los esfuerzos por construir evidencia sobre la enseñanza y el aprendizaje mediante estos métodos han enfrentado obstáculos. Uno de ellos es que la investigación con este tipo de metodología tiene dificultades para obtener evidencia detallada sobre la efectividad de las prácticas docentes. En parte, esto se debe a que, como ya se ha mencionado, en las aulas suelen darse numerosas prácticas simultáneas, lo que significa que aislar las prácticas individuales es muy difícil (Wrigley and McCusker, 2019[26]). Un segundo desafío es que existe una considerable agencia humana en las aulas, lo que reduce la posibilidad de que factores externos, como una intervención asignada en una evaluación experimental, puedan explicar por sí solos los efectos (Parra and Edwards, 2024[27]). Dado que la agencia humana está en el centro del aprendizaje y de muchos cambios en la intervención –a diferencia de los tratamientos externos en el ámbito de la salud–, los riesgos de sesgo son elevados, por ejemplo, a través de la alteración del comportamiento por parte de docentes cuando son conscientes de que están siendo estudiados (Thomas, 2016[28]). Por último, la posibilidad de hacer afirmaciones generalizables sería limitada, ya que las aulas están sujetas, en la práctica, a una mayor variación de lo que sugieren las etiquetas que suelen utilizarse y controlarse, lo que explicaría las bajas tasas de replicabilidad (Pawson, 2006[29]).
Construir un cuerpo acumulativo de conocimiento es aún más difícil
Estas limitaciones forman parte de desafíos mucho más amplios en la producción y la mediación de la investigación, que dificultan la creación de una base coherente y acumulativa de conocimientos. Una preocupación importante es que la replicabilidad de la investigación en educación es muy baja (Perry, Morris and Lea, 2022[30]). Basándose en una muestra de las 100 principales revistas de educación en 2014, los investigadores descubrieron que solo el 0.13% de los artículos publicados, en el historial completo de publicaciones de las revistas, eran estudios de replicación (Makel and Plucker, 2014[31]). Además, Makel y Plucker descubrieron en su revisión sistemática de 2014 que, de los estudios de replicación que sí se llevaron a cabo, cuando no había solapamiento de autores, solo el 54% logró replicar los efectos anteriores. De hecho, la EEF también se ha encontrado con problemas similares a la hora de replicar a mayor escala estudios que han mostrado efectos positivos en contextos más pequeños (Edovald and Nevill, 2020[32]). Además, una revisión de seguimiento inspirada en la de Makel y Plucker, pero que investigaba los estudios de replicación en los años 2011-2022, encontró un pequeño aumento en el número de estudios, aunque con resultados y patrones similares en términos de éxito (Perry, Morris and Lea, 2022[30]).
Los desafíos en torno a los estudios de replicación apuntan a un posible desajuste entre los incentivos inherentes a la producción de investigación y lo que se necesita para desarrollar una base acumulativa de conocimientos confiable y coherente, a la cual los profesionales puedan recurrir. Uno de los argumentos es que los incentivos de la investigación están demasiado orientados a la obtención de resultados estadísticamente significativos. Esto ha dado lugar a críticas más amplias de que, en la investigación educativa, los tamaños de los efectos a menudo pueden presentar una estimación exagerada del impacto de un programa (Button et al., 2013[33]; Vasishth et al., 2018[34]; Sims et al., 2022[35]). Esto aumenta el riesgo de interpretaciones erróneas o desajustes en términos de expectativas. De ahí que, al analizar retrospectivamente 22 ensayos controlados aleatorizados prometedores, Sims et al. (2022[35]) descubrieran que los tamaños del impacto estaban sobreestimados en un promedio del 52% o más. Esto significa que los impactos reales pueden ser en realidad menores que los notificados, sobre todo en los ensayos a pequeña escala, como es característico en gran parte de la investigación experimental en educación.
En relación con estas preguntas sobre la fiabilidad de determinados tamaños de efecto surge también el tema de quién lleva a cabo la investigación. Los investigadores han observado que, incluso cuando se controlan las diferentes características del diseño y otras variables relacionadas, los estudios encargados o realizados por los propios desarrolladores de una intervención concreta presentaban, en promedio, tamaños de efecto mayores que aquellos estudios realizados por actores independientes (Wolf et al., 2020[36]).
Una segunda crítica a los incentivos inherentes a la producción de investigación ha sido la dependencia que ésta tiene respecto de una amplia referencia a trabajos ya extensamente citados (Chu and Evans, 2021[37]). Se ha argumentado que esto puede conducir a la "canonización" de ciertas ideas, y algunos sostienen que estos patrones de referenciación van unidos a una cultura que rara vez cuestiona o revisa negativamente trabajos anteriores (Van Damme, 2022[1]). Se trata de tendencias que afectan no solo a la investigación en educación, sino a la investigación en ciencias sociales en general (Catalini, Lacetera and Oettl, 2015[38]). Las manifestaciones de esto pueden verse en la investigación sobre la enseñanza y el aprendizaje y en cómo ciertas ideas se concentrarían en torno a etiquetas bien repetidas que a menudo están mal definidas, como el caso del "aprendizaje activo" mencionado en el capítulo 1 (Hood Cattaneo, 2017[39]), o en áreas donde el esfuerzo es mucho mayor en discutir la promesa y el potencial de un concepto que en el trabajo empírico real, como se ha argumentado en el campo de la "ciencia cognitiva" (Perry, Morris and Lea, 2022[30]).
Por último, los esfuerzos orientados a sintetizar la evidencia existente y elaborar conclusiones más generalizables, por ejemplo, mediante metaanálisis y revisiones sistemáticas que consoliden las conclusiones empíricas, son todavía relativamente incipientes en el ámbito de la educación. Basándose en el trabajo de Education.org ( (2021[3]), Van Damme (2022[1]) argumentó que el ámbito de la salud produce 26 síntesis por cada una que se desarrolla en educación. Aunque parte de esta diferencia puede explicarse por el gasto en investigación de cada uno de estos sectores, las estimaciones sobre la magnitud de esta diferencia (por ejemplo, OCDE, (2023[40])) sugieren que también entran en juego otros factores además de la financiación. No obstante, en los últimos años también se ha observado el desarrollo y el establecimiento de "organizaciones de intermediación del conocimiento" (también denominadas a menudo "intermediarios del conocimiento") que permiten la participación de los profesionales –así como de los responsables políticos– en la investigación, para apoyar sus prácticas y decisiones mediante la realización de actividades de movilización del conocimiento (OECD, 2023[40]). En particular, muchas de estas organizaciones se dedican a elaborar síntesis de evidencia sólidas. Se trata de estructuras relativamente nuevas en el panorama de la evidencia educativa, que funcionan como guardianes y canales establecidos para la investigación rigurosa en educación. Por ejemplo, What Works Clearinghouse en Estados Unidos, EEF en Inglaterra, The Campbell Collaboration en Canadá y Leibniz Institute for Research and Information in Education (DIPF) en Alemania, son organizaciones que se han consolidado en las últimas dos décadas (OECD, 2023[40])
Evidencia científica sobre las prácticas pedagógicas
Copiar enlace a Evidencia científica sobre las prácticas pedagógicasA pesar de las dificultades que plantea la medición de la enseñanza y el aprendizaje, cada vez hay más conocimientos científicos sobre el impacto de algunas prácticas docentes en los resultados cognitivos y no cognitivos de los alumnos. Después de todo, a veces puede resultar demasiado fácil descartar por completo todos los hallazgos de la investigación, de forma "generalizada", debido a algunas limitaciones específicas. Los esfuerzos constantes de las últimas décadas por indagar en la enseñanza y el aprendizaje siguen aportando información valiosa.
Evaluar la solidez de la evidencia existente
Para comprender la situación actual de la base de evidencia que existe sobre la enseñanza, un Grupo Informal de Expertos (véase el Cuadro 7.2) examinó diferentes marcos pedagógicos y sus bases de evidencia asociadas para definir descriptores conceptuales claros de las prácticas comunes y redactar documentos de referencia que analicen la evidencia sobre dichas prácticas. El resultado fue un primer borrador de la Taxonomía de la Enseñanza, que consta de cinco grandes dimensiones (interacción en el aula, compromiso cognitivo, evaluación formativa y retroalimentación, contenidos temáticos de calidad y apoyo socioemocional).
Se llevó a cabo un proceso de revisión por expertos de las 20 prácticas incluidas en la Taxonomía de Schools+ para comprender mejor la solidez de la evidencia disponible e identificar posibles áreas para futuras investigaciones. Se invitó a organizaciones de intermediación de evidencia y a un grupo seleccionado de destacados académicos a participar en un ejercicio de evaluación para cada una de estas prácticas (véase el Anexo A). En concreto, se les pidió que calificaran cada una de las 20 prácticas de acuerdo con las siguientes consideraciones:
la cantidad de estudios de calidad que establecen un impacto causal en los resultados y que contribuyen a construir una base acumulativa de evidencia;
la coherencia en la dirección de los efectos y su poder predictivo sobre los resultados claves;
y la cobertura de diferentes contextos, temas y edades.
Un total de 26 destacados académicos y organizaciones de intermediación de evidencia proporcionaron sus evaluaciones. Si bien es muy complejo determinar con precisión la solidez actual de la evidencia, la Tabla 7.2 ofrece una indicación inicial basada en el nivel de consenso entre los expertos en sus valoraciones, y en las fortalezas y las limitaciones que compartieron.
Cuadro 7.2. Evidencia del impacto causal en los resultados de los estudiantes
Copiar enlace a Cuadro 7.2. Evidencia del impacto causal en los resultados de los estudiantes|
Dimensión pedagógica |
Solidez de la mejor evidencia disponible según las valoraciones de los expertos |
||
|---|---|---|---|
|
Baja |
Media |
Alta |
|
|
Interacción en el aula |
Colaboración entre estudiantes (por ejemplo Education Endowment Foundation (2021a[41]); Kyndt et al. (2013[42]); van Leeuwen and Janssen (2019[43])) |
||
|
Discusiones con toda la clase (por ejemplo Howe and Abedin (2013[44]); Alexander (2018[45])) |
|||
|
Preguntas y respuestas (por ejemplo Alexander (2018[45]); Hennessy et al. (2021[46]); Sedova et al. (2019[47])) |
|||
|
Compromiso cognitivo |
Garantizar niveles adecuados de desafío (por ejemplo Wang and Eccles (2013[48])) |
Metacognition* (por ejemplo Muijs and Bokhove (2020[49]); Perry, Lundie and Golder (2018[50])) |
|
|
Trabajar con múltiples enfoques y representaciones (por ejemplo Mayer (2002[51])) |
|||
|
Facilitar experiencias de primera mano (por ejemplo Kolb and Kolb (2009[52])) |
|||
|
Contexto significativo y conexiones con el mundo real (por ejemplo Education Endowment Foundation (2017[53]); Alifieri et al. (2011[54]); Furtak et al. (2012[55])) |
|||
|
Evaluación formativa y retroalimentación |
Diagnóstico del aprendizaje del estudiante (por ejemplo Elliot et al. (2020[56]); Chiu (2004[57])) |
Retroalimentación (por ejemplo Elliot et al. (2020[56]); Newman (2021[58])) |
|
|
Adaptación al modo de pensar de los alumnos (por ejemplo Smale-Jacobse et al. (2019[59]); Deunk et al. (2018[60]); van de Pol et al. (2015[61])) |
Objetivos de aprendizaje (por ejemplo Jussim and Harber (2005[62]); Sanchez et al. (2017[63])) |
||
|
Contenido disciplinar de calidad |
Elaboración de explicaciones y exposiciones (por ejemplo Stockard et al. (2018[64])) |
Claridad, precisión y coherencia (por ejemplo Stockard et al. (2018[64]); Coe et al. (2020[65])) |
|
|
Establecer conexiones (por ejemplo Education Endowment Foundation (2017[53])) |
|||
|
Naturaleza de la asignatura (por ejemplo Erduran and Dagher (2014[66])) |
|||
|
Apoyo social y emocional |
Construcción de relaciones (estudiante-estudiante) (por ejemplo Yibing Li et al. (2011[67]) |
Fomentar un clima de apoyo en el aula (por ejemplo Wang et al. (2020[68]); Khalfaoui, Garca-Carrin and Villardn-Gallego (2020[69])) |
|
|
Enseñanza explícita y práctica activa de las habilidades socioemocionales (por ejemplo Education Endowment Foundation (2021b[70]); Takacs and Kassai (2019[71])) |
Construcción de relaciones (docente-estudiante)(por ejemplo Hamre and Pianta (2001[72]); Ansari, Hofkens and Pianta (2020[73])) |
||
Nota: También se llevó a cabo una revisión bibliográfica independiente en la que se hizo referencia a 500 estudios sobre los cinco objetivos pedagógicos considerados. Las referencias clave para cada práctica fueron sugeridas por el Grupo Informal de Expertos.
* La metacognición se añadió a la Taxonomía tras el ejercicio de consulta con expertos y agencias de intermediación del conocimiento. Su inclusión se basa en una revisión de la literatura y en algunos de los comentarios cualitativos relacionados con la metacognición de expertos y agencias.
El nivel de conocimiento científico varía considerablemente entre estas prácticas según los juicios de los expertos. En general, existe un mayor consenso en torno al impacto causal de las prácticas en las dimensiones de interacción en el aula y de evaluación formativa y retroalimentación, que en las de compromiso cognitivo, contenido temático de calidad y apoyo socioemocional.
Limitaciones y líneas de investigación futura
La Cuadro 7.3 propone aspectos específicos que requieren una investigación más profunda para cada una de las prácticas en las cinco dimensiones de la taxonomía. En general, se observan las siguientes limitaciones en toda la base de evidencia:
Número de estudios y diseños de investigación. Existe un número limitado de estudios de investigación que utilizan diseños empíricos. Por ejemplo, en la evaluación formativa y la retroalimentación, se necesita más investigación empírica para aislar los efectos de ciertas prácticas. Del mismo modo, en el apoyo socioemocional, donde predominan los estudios correlacionales y no experimentales, se requiere investigación empírica para comprender el impacto preciso de las relaciones docente-estudiante y sus contribuciones directas. También surge una cuestión más amplia sobre el tipo de investigación empírica. Estudios más controlados realizados fuera del aula (por ejemplo, estudios de laboratorio) pueden contribuir a la construcción de una imagen de los efectos de las prácticas y de cómo funcionan, pero sigue siendo necesario considerar cuidadosamente su traducción a las aulas reales, lo cual no siempre es directo (por ejemplo, véase Howe et al., (2019[74]).
Niveles educativos. Para algunas dimensiones, la investigación proviene desproporcionadamente de ciertos grupos de edad y niveles educativos. En particular, en el apoyo socioemocional es necesario investigar más a fondo cómo los hallazgos sobre la efectividad de las prácticas concretas con alumnos más jóvenes se trasladan a los estudiantes de más edad para enseñar explícitamente ciertas habilidades. Por otro lado, en el contenido de calidad de las asignaturas, sigue siendo necesario comprender mejor cómo se manifiestan las teorías cognitivas del aprendizaje, sobre todo en los alumnos más jóvenes, en relación con la práctica fundamental de la claridad y la precisión.
Asignaturas. La investigación tiende a llevarse a cabo en las asignaturas de matemáticas, alfabetización y ciencias, lo que limita la relevancia de los resultados para otras asignaturas. Por ejemplo, en las dimensiones de la calidad del contenido de las asignaturas, la base de evidencia está dominada por la investigación en el campo de las ciencias y las matemáticas debido a la naturaleza de esas asignaturas; en compromiso cognitivo, está dominada por las experiencias de primera mano en ciencias.
Contextos. La investigación tiende a sobrerrepresentar los contextos educativos bien dotados de recursos y de habla inglesa, en comparación con los que atienden a estudiantes desfavorecidos o marginados. Esto es especialmente notable en los estudios sobre prácticas básicas como la colaboración y el debate en clase, en los que la composición del aula desempeña un papel importante en la forma en que se implementan estas prácticas. Se necesitan contextos de investigación más diversos para comprender mejor cómo se aplican los hallazgos en distintos contextos de clase y mejorar así la generalización de los resultados obtenidos hasta ahora.
Claridad conceptual. En algunas dimensiones, la operacionalización de determinados constructos sigue planteando dificultades. Por ejemplo, en la dimensión de apoyo socioemocional puede haber un alto grado de variación conceptual en cuanto a cómo se definen y utilizan en la investigación aspectos como el clima del aula o las habilidades específicas que pueden enseñarse (Steponavičius, Gress-Wright and Linzarini, 2023[75]). Para otras prácticas, como el compromiso cognitivo, se necesita más claridad en torno a qué constituye un "desafío". La falta de claridad sobre los conceptos clave dificulta la acumulación de conocimientos.
En el Anexo 7.A se indican limitaciones más concretas de los estudios de investigación actuales para señalar las lagunas existentes y las oportunidades para futuros esfuerzos de investigación.
Cuadro 7.3. Posibles líneas de investigación futuras
Copiar enlace a Cuadro 7.3. Posibles líneas de investigación futuras|
Dimensión pedagógica |
Práctica |
Dimensión pedagógica |
|
Interacción en el aula |
Preguntas y respuestas |
Qué tipos de preguntas pueden ser más eficaces para fomentar formas más avanzadas de razonamiento, como el pensamiento crítico o la resolución de problemas. El momento y, en relación con ello, la secuencia de las preguntas ( (Bishop, 2021[76]). |
|
Los aspectos emocionales o afectivos específicos del entorno de aprendizaje y cómo interactúan con el planteamiento de preguntas. |
||
|
Comprender mejor la variación cultural de determinadas preguntas y cómo pueden interpretarse de forma diferente, incluido el modo en que determinadas preferencias culturales pueden repercutir en los patrones de preguntas y respuestas (Xu and Clarke, 2019[77]). |
||
|
Colaboración |
Diferencias contextuales en términos de tamaño y composición de las clases. |
|
|
Más evaluaciones independientes de las intervenciones (Education Endowment Foundation, 2021a[41]). |
||
|
Discusiones con toda la clase |
Diferencias contextuales en cómo surgen la discusión y el diálogo, y cómo se relacionan con las prácticas culturales (Xu and Clarke, 2019[77]). |
|
|
Compromiso cognitivo |
Garantizar niveles adecuados de desafío |
Mayor claridad conceptual y coherencia en torno a qué constituye un "desafío". |
|
Aislar los mecanismos exactos –análisis, evaluación, resolución de problemas, etc.– que hacen que un determinado trabajo o tarea suponga un desafío (Sweller et al., 2024[78]). Esto puede incluir la identificación de determinadas características concretas del trabajo o las tareas. |
||
|
Facilitar experiencias de primera mano |
Aislar los efectos particulares de las experiencias; las intervenciones de investigación suelen constar de múltiples elementos de un programa, lo que dificulta la comprensión de las características que las hacen tener impacto (Sweller et al., 2024[78]). |
|
|
Comprender el uso más eficaz de las experiencias de primera mano en relación con los conocimientos previos de los alumnos y cuándo pasar a procesos de indagación a partir de determinados niveles de conocimientos previos (de Jong et al., 2023[79]; Sweller et al., 2024[78]). |
||
|
Trabajar con múltiples enfoques y representaciones |
Qué tipos de representaciones o perspectivas diferentes pueden ser valiosas para los distintos alumnos a la hora de profundizar en su comprensión y construir un pensamiento más flexible |
|
|
Metacognición |
Trabajar con muestras de mayor tamaño para mejorar la generalizabilidad de los resultados. Esto puede estar relacionado con el intento de comprender con más detalle los mecanismos particulares de determinados enfoques metacognitivos que contribuyen a los resultados. |
|
|
La relación entre la metacognición en el momento y la metacognición retrospectiva (a menudo denominada metacognición "en línea" o "fuera de línea"), ya que algunos estudios han encontrado una desconexión entre estos tipos de mediciones y sugieren que hay que entender mejor cómo se desarrollan (Fleur, Bredeweg and van den Bos, 2021[80]). |
||
|
Contexto significativo y conexiones con el mundo real |
Definir y comprender más claramente lo que es "significativo" y "relevante" para los estudiantes, para identificar características específicas para el diseño de tareas y la enseñanza. Esto puede incluir la consideración de distintas asignaturas. |
|
|
Evaluación formativa y retroalimentación |
Objetivos de aprendizaje |
Prueba empírica de diferentes características de los objetivos de aprendizaje y su comunicación para comprender si ciertos enfoques son más eficaces que otros. |
|
Diagnóstico del aprendizaje |
Qué tareas y preguntas específicas pueden diagnosticar mejor el aprendizaje de los alumnos en tiempo real para los distintos tipos de conocimientos y, para las nuevas competencias, cada vez más valoradas. |
|
|
Cuándo es más apropiado provocar el pensamiento del alumno y actuar en consecuencia (Ruiz-Primo, 2011[81]). |
||
|
Retroalimentación |
Los efectos a largo plazo de los distintos tipos de retroalimentación (por ejemplo, la retención de la memoria a largo plazo). |
|
|
Adaptarse al modo de pensar de los estudiantes |
Avanzar en los enfoques para medir el grado de adaptación de los docentes al modo de pensar de los estudiantes y su adecuación a las necesidades de estos (Deunk et al., 2018[60]). |
|
|
Quality subject matter |
Elaborar explicaciones y exposiciones |
Pasar de un enfoque basado principalmente en la teoría a una comprobación más empírica de cómo se estructuran y secuencian mejor las explicaciones de un contenido concreto para el aprendizaje a largo plazo de los alumnos. |
|
Claridad, precisión y coherencia |
Más investigación en el aula sobre determinadas teorías del aprendizaje, como la recuperación de conocimientos previos y su secuenciación, o la carga cognitiva en el aula. |
|
|
Establecer conexiones |
Comprender mejor los niveles suficientes de conocimientos previos para pasar a establecer conexiones (Education Endowment Foundation, 2021a[41]). |
|
|
Naturaleza de la asignatura |
Cómo puede conceptualizarse y analizarse la "naturaleza de la asignatura" más allá de las disciplinas científicas (Puttick and Cullinane, 2021[82]). |
|
|
Apoyo socioemocional |
Fomentar un clima de apoyo en el aula |
Claridad conceptual en torno a conceptos clave (por ejemplo, coraje y conciencia) para garantizar una aplicación coherente de terminologías (Gutman and Schoon, 2013[83]; Audley and Donaldson, 2022[84]; OECD, 2021[85]). Esto también facilitará las mediciones. |
|
Construcción de relaciones (docente-estudiante) |
Cómo se desarrollan y mantienen las relaciones en diferentes culturas y contextos, para facilitar las comparaciones. |
|
|
Más investigación experimental que vaya más allá de los diseños correlacionales basados en encuestas (Sabol and Pianta, 2012[86]). |
||
|
Construcción de relaciones (estudiante-estudiante) |
Seguir explorando cómo estructurar los entornos de aprendizaje para facilitar la conversación y el diálogo (Alfieri et al., 2011[54]; Wentzel and Watkins, 2022[87]). |
|
|
El papel del trabajo en grupo en la creación de relaciones y cómo puede contribuir al sentimiento de pertenencia de los estudiantes (Tolmie et al., 2010[88]). |
||
|
Enseñanza explícita y práctica activa de las habilidades socioemocionales |
Comprender cómo apoyar el desarrollo de habilidades socioemocionales con poblaciones mayores de estudiantes, particularmente adolescentes (Yeager, Dahl and Dweck, 2017[89]). |
|
|
Papel de los espacios fuera del aula (por ejemplo, los pasillos) en el desarrollo de habilidades socioemocionales (Jones et al., 2021[90]). |
||
|
Examen de mecanismos específicos dentro de los programas para aislar lo que contribuye a los efectos en los estudiantes. |
Nota: Las sugerencias fueron aportadas por los 26 académicos y organizaciones de intermediación del conocimiento más destacados que participaron en el ejercicio de revisión por expertos. Otros 17 académicos y organizaciones realizaron aportes cualitativos sobre la conceptualización de las prácticas y el alcance de su evidencia (véase el Anexo A: Metodología).
Avanzando hacia prácticas más fundamentadas en evidencia
Copiar enlace a Avanzando hacia prácticas más fundamentadas en evidenciaA medida que la investigación busca traspasar las fronteras del conocimiento en la educación, surge la pregunta de cómo esta base de conocimiento científico puede orientar mejor lo que sucede en el aula. Para que el conocimiento científico tenga impacto, los docentes deben ser capaces no solo de acceder a él e interpretarlo, sino también de desaprender y de apoyarse en nueva evidencia en sus procesos de toma de decisiones ( (Cain et al., 2019[91]). Este es un proceso dinámico y complejo.
Acceso a la evidencia científica
En los últimos años han aumentado los esfuerzos por traducir la investigación a formatos más accesibles para las escuelas. Ha quedado claro que el simple acceso a la "investigación en bruto" no suele ser una forma efectiva de utilizarla (Gorard, See and Siddiqui, 2020[92]). El mencionado crecimiento de las organizaciones de intermediación del conocimiento refleja este hecho, así como el aumento de atención que se presta a la comprensión de su papel y sus actividades como intermediarios (OECD, 2023[40]; OECD, 2023[93]).
Un estudio reciente de la OCDE sobre las organizaciones de intermediación del conocimiento de 34 países examinó los tipos de apoyo que las organizaciones prestan a los profesionales. La encuesta incluyó organizaciones formales de intermediación del conocimiento y otros actores como instituciones de investigación, instituciones de formación inicial del docente, inspecciones y servicios de acreditación de la calidad. Solo la mitad (49%) de las organizaciones que afirmaron que su labor de movilización del conocimiento en el ámbito de la educación se centraba en facilitar el uso de la investigación en la práctica indicaron que ya disponían de "herramientas de autoevaluación o reflexión sobre la implementación de intervenciones/estrategias" para los profesionales. Como muestra la Figura 7.2, el 21% tenía la intención de poner a disposición este tipo de apoyo. Por un lado, esto sugiere que el apoyo al compromiso crítico de los docentes con las intervenciones/estrategias aún no está totalmente establecido. Se podría apoyar más el diálogo necesario en torno al uso de la evidencia científica y la reflexión profesional. En segundo lugar, esto sugiere que todavía no se solicita ni se tiene en cuenta sistemáticamente la perspectiva de los profesionales. El modo en que los docentes evalúan la eficacia de las intervenciones o estrategias no se tiene en cuenta sistemáticamente.
Figura 7.2. Tipos de apoyo que las organizaciones que facilitan el uso de investigación ofrecen a los profesionales de la educación
Copiar enlace a Figura 7.2. Tipos de apoyo que las organizaciones que facilitan el uso de investigación ofrecen a los profesionales de la educación
Nota: El número de personas que respondieron a cada uno de los ítems mostrados en el gráfico varió: el ítem 1 tuvo 225 respuestas; el ítem 2, 223; el ítem 3, 222; el ítem 4, 225 y el ítem 5 ("otros"), 30 respuestas.
Fuente: OECD Survey of Knowledge Mobilisation in Education data, 2023.
También se ha producido un cambio en los docentes y los líderes escolares en sus actitudes hacia la evidencia científica y en su utilización. En la Encuesta sobre Enseñanza y Aprendizaje (TALIS) de 2018, el 76% de los educadores declararon asistir a "conferencias sobre educación en las que docentes, directores y/o investigadores presentan sus investigaciones o debaten cuestiones educativas" (OECD, 2019[94]). Por el contrario, en la primera Encuesta sobre Enseñanza y Aprendizaje (TALIS) de 2009, menos de la mitad de los docentes declararon asistir a una forma similar de desarrollo profesional ("conferencias y seminarios sobre educación").
Esto se hace eco de hallazgos más amplios sobre el compromiso de los profesionales de la educación con la evidencia, con investigaciones en varios países que confirman la presencia de algunos patrones prometedores en torno al acceso de los docentes y las escuelas a la evidencia científica (Brown and Malin, 2022[95]). Una encuesta realizada en 2017 a 1670 docentes en Inglaterra reveló que la mayoría de los encuestados tenía una disposición positiva hacia la investigación académica, incluso si su impacto real a la hora de tomar sus decisiones seguía siendo pequeño en relación con otras fuentes de conocimiento (Walker, Nelson and Bradshaw, 2019[96]). Mientras tanto, dos tercios (65%, n=318) de los educadores australianos en la primera encuesta del Proyecto Q indicaron que, "cuando se enfrentan a un nuevo problema o decisión, buscan investigaciones que puedan ser relevantes". La misma proporción (65%, n=318) indicó que "saben dónde encontrar investigación relevante que pueda ayudar a orientar sus prácticas de enseñanza" (Australian Institute for Teaching and School Leadership, 2021[97]). Curiosamente, esta mezcla de disposición positiva y aplicación directa más bien limitada de la investigación se repitió también en España; en un estudio, el 68% de los docentes declararon que con frecuencia o siempre utilizaban la investigación para orientar sus prácticas, pero su uso real para orientar las innovaciones fue menor, siendo predominante el conocimiento experiencial o de pares (Ion, Diaz and Gairin, 2019[98]), citado en Malin et al. (2020[99]).
En estas diferentes áreas geográficas de investigación, una característica destacada es el rol de los colegas y la comunidad. De hecho, en términos más generales, el rol de los colegas en el intercambio de evidencia también se considera cada vez más importante, no solo por permitir el acceso a la evidencia, sino también por influenciar y facilitar su uso (Cain, 2015[100]). Por ejemplo, las investigaciones han revelado que los docentes a menudo prefieren que sus colegas les recomienden evidencias, con el convencimiento de que solo recomendarán aquellas que ellos mismos consideran útiles o pertinentes para la práctica (Williams and Coles, 2007[101]).
Recuadro 7.1. Hacia más estructuras y culturas de uso de investigación de alta calidad en las escuelas
Copiar enlace a Recuadro 7.1. Hacia más estructuras y culturas de uso de investigación de alta calidad en las escuelasEl crecimiento de la producción de investigación en las últimas décadas también ha ido acompañado por un aumento de los tipos de iniciativas que tratan de apoyar el uso efectivo de esta investigación por parte de los docentes y los líderes escolares. Estos esfuerzos van desde la creación de estructuras específicas, como procesos y mecanismos para el uso de la investigación, hasta el desarrollo de culturas más amplias de interrogación habitual de la evidencia científica para fundamentar la toma de decisiones.
En toda la red Schools+, los participantes afrontan el desafío de promover el uso efectivo de la evidencia. Algunos enfoques destacados son:
La principal organización de intermediación de Inglaterra (Reino Unido), la Education Endowment Foundation (EEF), ha experimentado un considerable crecimiento desde su fundación en 2011. Ha pasado de centrarse originalmente en ensayos controlados aleatorizados y metaanálisis para su “conjunto de herramientas de enseñanza y aprendizaje”, a convertirse también en el mayor financiador de investigación cualitativa de su país. Para apoyar mejor a las escuelas en el acceso, la comprensión y la utilización de la evidencia, la EEF creó una red de socios, la "Research Schools Network” (RSN), en 2016. La RSN ha crecido hasta convertirse en una colaboración de 33 escuelas en siete regiones de Inglaterra. Estas research schools (“escuelas de investigación”) actúan como promotoras de la evidencia en sus redes locales y regionales y desarrollan asociaciones estratégicas a través de una combinación de formación, ejemplificación y apoyo de escuela a escuela. La RSN se ha comprometido colectivamente con más del 40% de los centros escolares en toda Inglaterra y ha proporcionado formación a más de 6.000 escuelas, con el rol de promover culturas más fuertes de uso de evidencia, algo que se refleja en el hecho más amplio de que el 70% de los líderes de alto nivel en Inglaterra indican que usan el conjunto de herramientas de EEF al tomar decisiones sobre el gasto escolar.
SUMMA es el Laboratorio de Investigación e Innovación en Educación para América Latina y el Caribe, creado en 2016 por el Banco Interamericano de Desarrollo. SUMMA tiene como objetivo mejorar la calidad, la equidad y la inclusión de los sistemas educativos mediante la generación de investigación comparativa, la síntesis de evidencia contextualizada, el diseño y evaluación de innovaciones, y el fomento de reformas estructurales eficaces, a través de alianzas a largo plazo entre políticas públicas y prácticas educativas. Una manifestación de ello es el desarrollo, en alianza con la ya mencionada Education Endowment Foundation, de una Plataforma de Prácticas Pedagógicas Efectivas para apoyar decisiones informadas en evidencia y sensibles al contexto. De este modo, la plataforma complementa la evidencia global con la investigación regional de América Latina y el Caribe para asegurar tanto la consistencia en lo que la evidencia establece, como la pertinencia en sus recomendaciones para acciones prácticas. Otra línea de trabajo importante de SUMMA se relaciona con su apoyo a las reformas políticas y la construcción de agendas compartidas entre políticas públicas e investigación. Apoya y colabora con más de 20 Ministerios de Educación de la región. Por ejemplo, a escala regional ha colaborado con la Universidad de las Indias Occidentales para reformar los programas de formación inicial del docente en el Caribe, y apoyar la alfabetización en investigación de los nuevos docentes y su comprensión de la base de evidencia más reciente sobre las prácticas educativas.
Leerpunt es una organización de intermediación de conocimiento de Flandes (Bélgica) cuyo objetivo es reforzar la práctica educativa a través de conocimientos científicos. Fundada en 2022, ha sabido aprovechar el trabajo de otras organizaciones de intermediación, como los dos “conjuntos de herramientas” (toolkits) de la EEF y las principales lecciones aprendidas. Por ejemplo, una estrategia destacable ha sido el desarrollo de una agenda de conocimientos clara en colaboración con los centros escolares, que describe los temas en los que docentes y profesionales de la educación indican la necesidad de mayores conocimientos. Con ello se pretende que la investigación siga siendo muy pertinente para las escuelas. Otra estrategia destacable es el desarrollo de una serie de asociaciones para fomentar una red de apoyo en torno a las escuelas que permita un uso eficiente de la evidencia. Leerpunt colabora con otras organizaciones, como programas de formación del docente y servicios de apoyo pedagógico, además de asociarse con el Ministerio Flamenco de Educación. Este enfoque más "sistémico" de la movilización del conocimiento refleja la creciente base de conocimientos, no solo en términos de la evidencia en sí, sino también de cómo se apoya su uso.
Edutopia.org, una iniciativa de la Fundación Educacional George Lucas, funciona como fuente gratuita de información sobre prácticas de enseñanza y aprendizaje fundamentadas en evidencia, y conecta a una comunidad de partes interesadas comprometidas con la mejora de la educación. Su objetivo es promover una visión en la que los estudiantes se conviertan en aprendices permanentes y desarrollen habilidades fundamentales para los desafíos del presente y del futuro. Su contenido –una combinación de relatos multimedia, vídeos y artículos escritos por profesionales– presenta ejemplos inspiradores de aulas reales. A través de vehículos como su boletín "The Research Is In", Edutopia ayuda a traducir la investigación educativa para su implementación práctica por parte de los educadores. La plataforma ha logrado un alcance considerable, sobre todo en Norteamérica y cada vez más en todo el mundo, con un promedio mensual de 12 millones de personas en Edutopia.org y en plataformas sociales. La clave de su éxito ha sido poner de relieve prácticas prometedoras en formatos claros y accesibles, muchas de las cuales son muy fáciles de comprender y están estrechamente vinculadas a la realidad de las aulas.
Nota: Los aportes proceden directamente de los participantes en Schools+.
Fuente: EEF (2022[102]), Teaching and Learning Toolkit, https://educationendowmentfoundation.org.uk/education-evidence/teaching-learning-toolkit.; Gu, Q. et al. (2020[103]), https://educationendowmentfoundation.org.uk/public/files/RS_Evaluation.pdf.; SUMMA (2023[104]), Effective Education Practices Platform, https://practicas.summaedu.org/en/what-is-it-platform/what-is-it-main-objectives.; Sutton Trust (2024[105]), News and Findings - NFER; School Funding and Pupil Premium 2024, https://www.suttontrust.com/our-research/school-funding-and-pupil-premium-2024.
Interpretación y evaluación de la evidencia científica
Los centros escolares muestran un interés creciente por acceder e implementar la investigación. Sin embargo, ¿cuentan con las habilidades y la capacidad necesarias para comprometerse efectivamente con ella e, incluso, contribuir con la misma? En 2021, la encuesta de la OCDE “Strengthening the Impact of Education Research” reveló que el 62% de los sistemas educativos encuestados señalaron que la "falta de tiempo para acceder a la investigación y participar en ella" era un obstáculo para el uso de la investigación en la práctica escolar, mientras que algo más de la mitad (53%) de los sistemas educativos encuestados señalaron que los "bajos niveles de competencias y capacidad para utilizar la investigación" representaban un obstáculo para su implementación en la práctica escolar (OECD, 2023[40]). Esto es especialmente significativo si se tiene en cuenta la rapidez con la que pueden evolucionar las áreas de investigación de la enseñanza; por ejemplo, al considerar la gran atención prestada a la metacognición (Muijs and Bokhove, 2020[49]) o a las prácticas relacionadas con el apoyo socioemocional (Yeager, Dahl and Dweck, 2017[89]; Yeager et al., 2021[106]) en los últimos años, que pueden modificar la base de conocimientos a la que deben recurrir los docentes.
Figura 7.3. Habilidades de los profesionales de la educación para involucrarse con la investigación
Copiar enlace a Figura 7.3. Habilidades de los profesionales de la educación para involucrarse con la investigaciónPorcentaje de sistemas que están de acuerdo o muy de acuerdo en que "Los profesionales de la educación tienen las habilidades y la capacidad para..."
Nota: El proyecto Strengthening the Impact of Education Research de la OCDE encuestó a 37 sistemas educativos de 29 países en 2021. 20 sistemas respondieron a esta pregunta sobre profesionales de la educación
Fuente: Adaptado de OECD (2023[93]), Who Really Cares about Using Education Research in Policy and Practice?: Developing a Culture of Research Engagement, Educational Research and Innovation, https://doi.org/10.1787/bc641427-en.
Los programas de formación inicial del docente y las oportunidades de desarrollo profesional son dos vías importantes para hacer crecer un cuerpo docente y directivo que pueda comprometerse eficazmente con la investigación educativa. La mencionada encuesta de la OCDE reveló que solo alrededor de un tercio de los ministerios informó que la formación de los futuros docentes en la comprensión e interpretación de resultados de investigación es un requisito en todos los programas de formación inicial del docente, y en menor medida, en el desarrollo profesional continuo (OECD, 2023[40]).
Figura 7.4. Habilidades enseñadas en la formación inicial de los docentes y en el desarrollo profesional continuo
Copiar enlace a Figura 7.4. Habilidades enseñadas en la formación inicial de los docentes y en el desarrollo profesional continuo
Nota: Los datos muestran el porcentaje de sistemas encuestados que declararon que las habilidades en cuestión eran "obligatorias" o estaban "cubiertas en su mayor parte" por la formación inicial del docente y el desarrollo profesional continuo. N = 34 para ITE, 33 para CPD. Véase Who Really Cares about Using Education Research in Policy and Practice? Developing a Culture of Research Engagement (OCDE, 2023[92]) para más detalles. Las habilidades se clasifican en orden descendente según el porcentaje de sistemas que las declaran como "obligatorias" en la formación inicial del docente.
Fuente: OECD (2023[93]), Strengthening the Impact of Education Research policy survey, https://doi.org/10.1787/bc641427-en
Desaprender y reaprender
Los desafíos inherentes al proceso de cambiar las prácticas no pueden pasarse por alto. Es un proceso que puede exigir desaprender y reaprender hábitos o creencias profundamente arraigadas. Para que la evidencia tenga algún impacto, debe integrarse en las bases de conocimiento internas de los docentes, permitiéndoles recurrir a ella en la toma de decisiones (Cain et al., 2019[91]). La enseñanza se nutre de una serie de fuentes de conocimiento, y cuando se encuentra nueva evidencia, los docentes tienen que participar en un proceso de desaprendizaje y reaprendizaje. Cuando la evidencia científica es de alta calidad y de gran relevancia para los docentes, puede ser una fuente de información inestimable (Van Damme, 2022[1]; OECD, 2020[24]). Pero esta es una fuente de conocimiento que interactúa con otras fuentes de conocimiento (Figura 7.5) (Cain, 2015[100]; Sharples, 2013[107]).
Figura 7.5. Las diferentes fuentes de conocimiento que pueden orientar la enseñanza y la toma de decisiones de los docentes
Copiar enlace a Figura 7.5. Las diferentes fuentes de conocimiento que pueden orientar la enseñanza y la toma de decisiones de los docentes
Fuente: Adaptado de Van Damme (2022[1]), The Power of Proofs (Much) Beyond RCTs, www.curriculumredesign.org, and Guerriero (2017[108]), Pedagogical Knowledge and the Changing Nature of the Teaching Profession, https://doi.org/10.1787/9789264270695-en.
Es necesario comprender mejor esta interacción, ya que su omisión dificulta aún más los esfuerzos pertinentes a nivel de sistema escolar para avanzar hacia prácticas más informadas en evidencia. La investigación no ha arrojado suficiente luz sobre "cómo" la evidencia científica realmente se impone y cambia la práctica. Se ha propuesto que cuando la evidencia se busca para resolver un problema u orientar la deliberación, es más probable que resulte en cambios en la práctica que cuando solo se consulta por curiosidad (Farley-Ripple et al., 2018[109]). Esto pone de relieve que la evidencia se combina con el conocimiento tácito vinculado al contexto o la investigación basada en la práctica para abordar problemas específicos (Greany and Maxwell, 2017[110]; Earl and Timperley, 2015[111]). Un caso a considerar es el modo en que la investigación sobre cómo brindar a los alumnos oportunidades para repasar aprendizajes anteriores debe combinarse con el conocimiento específico que tiene un docente sobre la manera en que han transcurrido las lecciones anteriores, al momento de organizar la claridad, precisión y coherencia de una lección, y también al decidir la utilización de resúmenes o plenarios grupales específicos.
Debido a la dificultad del proceso de cambio, los investigadores sostienen que el uso de evidencia debe entenderse como un proceso social, en el que la interacción y las relaciones desempeñan un papel clave a la hora de determinar cómo se aplica la evidencia en entornos prácticos. Por un lado, Sharples (2013[107]) y Brown et al. (2021[112]) destacan que la oportunidad de debatir sobre la investigación y la evidencia permite que los profesionales adquieran una comprensión más profunda y se apropien de los hallazgos. Este debate da lugar a una integración más pertinente y sensible de la evidencia en los entornos profesionales.
Por otra parte, un enfoque colaborativo del uso de la evidencia integrado en los procedimientos y la cultura de la organización también puede facilitar el cambio real de las prácticas, que es intrínsecamente difícil y debe mantenerse durante un período de tiempo (Cain et al., 2019[91]; Sharples, 2013[107]; Levine and Marcus, 2010[113]). Una práctica efectiva fundamentada en evidencia depende de procesos de colaboración y de enfoques estructurados a nivel de toda la escuela, los cuales pueden ayudar a garantizar que el uso de evidencia se convierta en una práctica continua (Godfrey and Brown, 2018[114]). Por otra parte, las estructuras y culturas que pueden crearse en las escuelas también dependen del contexto más amplio del sistema. En lugar de confiar en que las escuelas lideren el impacto del uso de la evidencia, también puede procurarse el apoyo de los actores del sistema que las rodean, quienes pueden tanto permitir como mejorar sus acercamientos a la evidencia (OECD, 2023[40]). La enseñanza basada en datos empíricos, por lo tanto, requiere un claro compromiso con la colaboración y el aprendizaje compartido, más que un esfuerzo aislado (Darling-Hammond, Hyler and Gardner, 2017[115]).
La importancia de una cultura escolar que promueva el uso de evidencia fue subrayada por una evaluación de impacto realizada en Inglaterra por Coldwell et al. (2017[116]), que reveló que el cambio sostenido se produce cuando los docentes disponen de tiempo para el debate informado y de oportunidades para ver el impacto de la evidencia en la práctica. Este hallazgo subraya los argumentos formulados al considerar el uso de evidencia como un proceso iterativo que se desarrolla en etapas, que implica la implementación de nuevas prácticas o cambios en las existentes, seguidos de la evaluación de impacto (Harn, Parisi and Stoolmiller, 2013[117]). Además, esto se ve reforzado al considerar la propia naturaleza de las prácticas; la aplicación efectiva de prácticas como la colaboración entre estudiantes y el debate en toda la clase puede verse favorecida por la presencia de normas y rutinas sólidas, que lleva tiempo construir.
El enfoque iterativo y continuo del uso de evidencia que describe la investigación implica que los docentes deben estar atentos a los diferentes resultados relevantes que produce este uso de evidencia y reflexionar sobre su significado. En consecuencia, esto también implica avanzar cada vez más hacia una posición en la que los docentes deben considerarse, esencialmente, investigadores de su propia práctica. En particular, teniendo en cuenta el poder de las culturas escolares y la colaboración, puede ser más apropiado hablar de los docentes en un sentido colectivo; es decir, comunidades de educadores que investigan su práctica, recurriendo a evidencia de manera crítica e informada, así como a su experiencia profesional individual y colectiva.
Recuadro 7.2. Comprender y reconocer el conocimiento profesional en la labor docente
Copiar enlace a Recuadro 7.2. Comprender y reconocer el conocimiento profesional en la labor docenteHan surgido algunos esfuerzos pioneros para poner de relieve las iniciativas que los centros escolares han desarrollado al abordar desafíos específicos. En general, su objetivo es sacar a la luz y celebrar los logros, compartir estrategias eficaces y fomentar la colaboración, con vistas a promover una cultura de excelencia y aprendizaje continuo.
Una manifestación de esto ha sido el desarrollo de repositorios de prácticas e iniciativas que buscan dirigirse directamente a las escuelas. Hay algunos ejemplos a nivel nacional. El Ministerio de Educación de la República Eslovaca ha elaborado un Catálogo de Innovaciones en la Educación, cuyo objetivo es inspirar a las escuelas e instituciones educativas para que sigan creciendo y desarrollándose. Se da prioridad a las iniciativas que tienen resultados experimentales sólidos y que ya han sido probadas en las escuelas eslovacas. No obstante, el catálogo también incluye iniciativas que se han utilizado con éxito en el extranjero y algunas completamente nuevas que aún están pendientes de evaluación. Las iniciativas se clasifican en función del tipo de práctica (por ejemplo, métodos de evaluación o gestión) y del grupo o tipo de centro al que van dirigidas. También se ofrece una visión general del enfoque del contenido, los métodos y las condiciones para su uso, así como los pasos necesarios para su introducción en nuevos contextos y los hallazgos derivados de las evaluaciones.
También ha habido algunas iniciativas para desarrollar repositorios de iniciativas escolares a nivel internacional. HundrED, una organización mundial sin fines de lucro, busca y comparte "innovaciones" inspiradoras en la educación primaria y secundaria. Cada año, HundrED selecciona 100 innovaciones educativas "con impacto y escalables" de todo el mundo y apoya su difusión a nuevos contextos a través de una plataforma en línea. La plataforma en línea de HundrED presenta unas 700 innovaciones que han sido seleccionadas entre miles. Un claro proceso de selección sustenta este trabajo, incluidos los criterios compartidos que utilizan una serie de revisores seleccionados. Para reflejar el proceso de reflexión sobre el diseño basado en el contexto y el perfeccionamiento continuo que ha conducido al desarrollo de estas iniciativas, la plataforma comparte el paso a paso del proceso de implementación de las innovaciones.
Otro enfoque que se ha desarrollado en los últimos años ha sido el uso de premios para destacar la labor de la profesión docente. En el ámbito nacional, muchos países conceden anualmente premios nacionales o subnacionales para docentes o centros escolares, organizados por autoridades públicas o entidades privadas. Hay unos 40 premios nacionales para docentes afiliados al Global Teacher Prize de la Fundación Varkey otorgados por diversos actores públicos y privados. Algunos de ellos funcionan también a escala internacional, con importantes premios monetarios. El premio "Las mejores escuelas del mundo", de la organización T4, identifica a las escuelas que llevan a cabo proyectos en cinco áreas temáticas, con un premio de 50.000 dólares americanos cada una.
Diversos actores han encabezado iniciativas similares para reconocer la labor de los docentes, desde ministerios (por ejemplo, la Ordre des Palmes Academiques del Ministerio de Educación Nacional de Francia o el Prime Minister's Award for Teaching Excellence de Canadá), organizaciones sin fines de lucro (por ejemplo, AdvanceHE en el Reino Unido), asociaciones de docentes (por ejemplo, la Asociación Nacional de Maestros de Ciencias de Estados Unidos), hasta universidades e institutos de enseñanza superior, entre otros. Un desafío permanente en todos los premios es la creación de mecanismos a través de los cuales las iniciativas o enfoques reconocidos puedan compartirse sistemáticamente con un mayor número de docentes y escuelas.
Nota: La información procede directamente del Ministerio de Educación de la República Eslovaca..
Fuente: Mackenzie, N. (2007[118]), Teaching Excellence Awards: An Apple for the Teacher?, https://doi.org/10.1177/000494410705100207; Seppala and Smith (2019[119]), Teaching awards in higher education: a qualitative study of motivation and outcomes, https://doi.org/10.1080/03075079.2019.1593349.
Oportunidades de investigar la propia práctica y de contribuir a nuevas investigaciones
Una postura de indagación hacia la propia enseñanza puede ser significativa para la práctica y el crecimiento de un docente. Se ha afirmado que este tipo de autoindagación constante es esencial para el perfeccionamiento a largo plazo de algo tan complejo como la enseñanza (Hiebert et al., 2007[120]). Hay una serie de enfoques metodológicos para la investigación basada en la práctica, incluida la investigación de acción o participativa o las asociaciones de investigación (Maxwell and Greany, 2017[121]), así como las comunidades profesionales de aprendizaje (PLCs: Professional Learning Communities) (OECD, 2023[40]; Stoll, 2015[122]).
Sin embargo, en términos más generales, sigue siendo un desafío garantizar que las formas de colaboración más profundas y significativas sean la norma en las escuelas y los sistemas. Estas pueden servir como bases útiles para una rica investigación profesional sobre la práctica entre los docentes. La encuesta TALIS de la OCDE (OECD, 2019[94]) sugiere que, si bien la colaboración es común, las formas más profundas de práctica colaborativa continúan enfrentando limitaciones en muchas escuelas (Figura 7.6).
Figura 7.6. Colaboración de los docentes con sus colegas
Copiar enlace a Figura 7.6. Colaboración de los docentes con sus colegasPorcentaje de docentes de secundaria inferior que afirman participar en las siguientes actividades de colaboración en su centro con la siguiente frecuencia (media OECD-31):
Nota: : "Al menos una vez al mes" abarca las siguientes opciones de respuesta: "De 1 a 3 veces al mes", "Una vez a la semana o más". "Menos de una vez al mes" abarca las siguientes opciones de respuesta: "Una vez al año o menos", "2-4 veces al año", "5-10 veces al año". Los valores se agrupan por tipo de actividad de colaboración y, dentro de cada grupo, se clasifican por orden descendente de las actividades de colaboración en las que los docentes de secundaria inferior afirman participar al menos una vez al mes.
Fuente: OECD (2019[94]), TALIS 2018 base de datos, cuadro II.4.1, https://doi.org/10.1787/19cf08df-en.
La relevancia de un enfoque de la enseñanza más orientado a la indagación y la autorreflexión también parece especialmente pertinente para reforzar las competencias docentes relacionadas con las 20 prácticas fundamentales que se consideran en este informe. Como se indica en el capítulo 1, no se trata tanto de que los docentes revisen lo que hacen en sus aulas, sino de que construyan efectivamente sobre los cimientos de las prácticas fundamentales existentes (OECD, 2020[24]). Se trata más bien de interrogarse sobre la propia práctica para comprender qué y cómo se puede mejorar en un contexto determinado.
Más allá de los beneficios inmediatos para el docente, también se destacan dos ámbitos en los que esto reforzaría aún más la base colectiva de conocimientos en educación. En primer lugar, podría contribuir a reforzar la base del conocimiento educativo mediante la codificación del conocimiento profesional (Conocimiento Profesional en la Figura 7.3). Esto incluye las distintas fuentes de conocimiento que pueden orientar la toma de decisiones de los docentes y su enseñanza.
A menudo se considera que el conocimiento profesional es difícil de generalizar y ha habido pocos esfuerzos por codificar y sintetizar este tipo de experiencia. El conocimiento profesional siempre ha sido y será algo intangible debido a su naturaleza localizada y a su dependencia de las experiencias (Ulferts, 2019[123]; Guerriero, 2017[108]), pero en los últimos años también se han creado herramientas y medios para examinar los aspectos comunes de este conocimiento ( (Mulgan, 2024[124]).
Asimismo, la investigación basada en la práctica también podría contribuir a aclarar las necesidades y la pertinencia de metodologías de investigación más rigurosas. Un reciente estudio sobre políticas públicas realizado por la OCDE reveló que la participación de los profesionales en la producción de la investigación era principalmente pasiva, permaneciendo en el lugar de "objeto" arquetípico de la investigación (OECD, 2023[40]). Desde el punto de vista de la investigación, se ha prestado más atención a la experiencia y la perspectiva de los docentes durante la implementación de las intervenciones y los cambios, por ejemplo, a través de aspectos como la "orientación del proceso", cuyo objetivo es traducir los resultados de la investigación para un público escolar de forma que sean aplicables (Cartwright, 2013[125]). Sin embargo, en tiempos de experimentación y cambio, como por ejemplo, durante la pandemia de COVID o el surgimiento de la IA generativa, una investigación rápida desde las escuelas podría proporcionar información para evaluaciones más rigurosas que orienten las respuestas políticas. De este modo se podría aumentar la eficacia y la capacidad de respuesta del sistema y, sobre todo, apoyar a los profesionales en períodos de cambio.
Está produciéndose un cambio de paradigma en la investigación, que ya no se centra simplemente en un modelo "unidireccional" en el que los resultados de la investigación se "imponen" a las escuelas y los docentes, sino que considera el intercambio "bidireccional" de una forma mucho más compleja y sostenida (OECD, 2023[40]; Sharples, 2013[107]). Es posible imaginar que se pregunta a las escuelas sobre la futura agenda de investigación para garantizar que el conocimiento científico sea relevante y se ajuste a sus necesidades inmediatas. Del mismo modo, debe explicitarse el conocimiento profesional sobre la implementación, pues puede proporcionar ejemplos inspiradores de cómo equilibrar la fidelidad y el ajuste contextual durante el proceso de implementación para que otras escuelas lo consideren.
Además, es posible que existan ciertos patrones en este conjunto de conocimientos profesionales que ayudarían a fundamentar nuevas investigaciones sobre los componentes críticos de su implementación, contribuyendo a construir una base de evidencia más específica. En conjunto, esto puede significar que la evidencia tenga más probabilidades de ser adoptada y bien implementada y, por tanto, de tener impacto a mayor escala. La compleja interacción entre los profesionales de la educación y los investigadores y sus respectivos conocimientos puede considerarse como un circuito de retroalimentación que aumenta la eficacia de los conocimientos científicos y profesionales y la forma en que trabajan juntos para garantizar una enseñanza de alta calidad.
References
[45] Alexander, R. (2018), “Developing dialogic teaching: genesis, process, trial”, Research Papers in Education, Vol. 33/5, pp. 561-598, https://doi.org/10.1080/02671522.2018.1481140.
[54] Alfieri, L. et al. (2011), “Does discovery-based instruction enhance learning?”, Journal of Educational Psychology, Vol. 103/1, pp. 1-18, https://doi.org/10.1037/a0021017.
[73] Ansari, A., T. Hofkens and R. Pianta (2020), “Teacher-student relationships across the first seven years of education and adolescent outcomes”, Journal of Applied Developmental Psychology, Vol. 71, p. 101200, https://doi.org/10.1016/j.appdev.2020.101200.
[84] Audley, S. and M. Donaldson (2022), “When to grit and when to quit:(How) should grit be taught in K-12 classrooms?”, Theory Into Practice, Vol. 61/3, pp. 265-276.
[97] Australian Institute for Teaching and School Leadership (2021), Collaborative Teaching: Sharing Best Practice, https://www.aitsl.edu.au/research/collaborate/collaborative-teaching-sharing-best-practice (accessed on 13 August 2023).
[76] Bishop, J. (2021), “Responsiveness and intellectual work: Features of mathematics classroom discourse related to student achievement”, Journal of the Learning Sciences, Vol. 30/3, pp. 466-508, https://doi.org/10.1080/10508406.2021.1922413.
[122] Brown, C. (ed.) (2015), Using evidence, learning and the role of professional learning communities, UCL IOE Press:.
[95] Brown, C. and J. Malin (eds.) (2022), The Emerald Handbook of Evidence-Informed Practice in Education, Emerald Publishing Limited.
[112] Brown, C. et al. (2021), “Facilitating collaborative reflective inquiry amongst teachers: What do we currently know?”, International Journal of Educational Research, Vol. 105, p. 101695, https://doi.org/10.1016/j.ijer.2020.101695.
[33] Button, K. et al. (2013), “Power failure: why small sample size undermines the reliability of neuroscience”, Nature Reviews Neuroscience, Vol. 14/5, pp. 365-376, https://doi.org/10.1038/nrn3475.
[100] Cain, T. (2015), “Teachers’ engagement with research texts: beyond instrumental, conceptual or strategic use”, Journal of Education for Teaching, Vol. 41/5, pp. 478-492, https://doi.org/10.1080/02607476.2015.1105536.
[91] Cain, T. et al. (2019), “Bounded decision‐making, teachers’ reflection and organisational learning: How research can inform teachers and teaching”, British Educational Research Journal, Vol. 45/5, pp. 1072-1087, https://doi.org/10.1002/berj.3551.
[125] Cartwright, N. (2013), “Knowing what we are talking about: why evidence doesn’t always travel”, Evidence and Policy, Vol. 9/1, pp. 97-112, https://doi.org/10.1332/174426413x662581.
[38] Catalini, C., N. Lacetera and A. Oettl (2015), “The incidence and role of negative citations in science”, Proceedings of the National Academy of Sciences, Vol. 112/45, pp. 13823-13826, https://doi.org/10.1073/pnas.1502280112.
[57] Chiu, M. (2004), “Adapting Teacher Interventions to Student Needs During Cooperative Learning: How to Improve Student Problem Solving and Time On-Task”, American Educational Research Journal, Vol. 41/2, pp. 365-399, https://doi.org/10.3102/00028312041002365.
[37] Chu, J. and J. Evans (2021), “Slowed canonical progress in large fields of science”, Proceedings of the National Academy of Sciences, Vol. 118/41, https://doi.org/10.1073/pnas.2021636118.
[65] Coe, R. et al. (2020), Great Teaching Toolkit: Evidence Review.
[116] Coldwell, M. et al. (2017), Evidence-informed teaching: an evaluation of progress in England.
[10] Curriculum Redesign, C. (ed.) (n.d.), The Challenges of Evidence-Informed Education, https://dirkvandammeedu.net/wp-content/uploads/2024/02/The-Challenges-of-Evidence-informed-Education-CEIPP.pdf (accessed on 7 August 2024).
[115] Darling-Hammond, L., M. Hyler and M. Gardner (2017), Effective Teacher Professional Development.
[79] de Jong, T. et al. (2023), “Let’s talk evidence – The case for combining inquiry-based and direct instruction”, Educational Research Review, Vol. 39, p. 100536, https://doi.org/10.1016/j.edurev.2023.100536.
[60] Deunk, M. et al. (2018), “Effective differentiation Practices:A systematic review and meta-analysis of studies on the cognitive effects of differentiation practices in primary education”, Educational Research Review, Vol. 24, pp. 31-54, https://doi.org/10.1016/j.edurev.2018.02.002.
[111] Earl, L. and H. Timperley (2015), “Evaluative thinking for successful educational innovation”, OECD Education Working Papers, No. 122, OECD Publishing, Paris, https://doi.org/10.1787/5jrxtk1jtdwf-en.
[32] Edovald, T. and C. Nevill (2020), “Working Out What Works: The Case of the Education Endowment Foundation in England”, ECNU Review of Education, Vol. 4/1, pp. 46-64, https://doi.org/10.1177/2096531120913039.
[12] Education Endowment Foundation (2024), Using research evidence - a concise guide, https://educationendowmentfoundation.org.uk/support-for-schools/using-research-evidence (accessed on 7 August 2024).
[102] Education Endowment Foundation (2022), Teaching and Learning Toolkit, https://educationendowmentfoundation.org.uk/education-evidence/teaching-learning-toolkit (accessed on 28 March 2022).
[53] Education Endowment Foundation (2017), Review of SES and Science Learning in Formal Education Settings.
[41] Education Endowment Foundation (2021a), Collaborative Learning Approaches, https://educationendowmentfoundation.org.uk/education-evidence/teaching-learning-toolkit/collaborative-learning-approaches#nav-what-is-it (accessed on 19 March 2024).
[70] Education Endowment Foundation (2021b), Evidence Review: Social and emotional learning.
[3] Education.org (2021), Calling for an Education Knowledge Bridge: A White Paper to Advance Evidence Use in Education, https://whitepaper.education.org/download/white_paper.pdf (accessed on 19 March 2024).
[56] Elliot, V. et al. (2020), Feedback: Practice Review, https://educationendowmentfoundation.org.uk/education-evidence/evidence-reviews/feedback-approaches (accessed on 19 March 2024).
[66] Erduran, S. and Z. Dagher (2014), Reconceptualizing the Nature of Science for Science Education: Scientific Knowledge, Practices and Other Family Categories, Springer.
[109] Farley-Ripple, E. et al. (2018), “Rethinking Connections Between Research and Practice in Education: A Conceptual Framework”, Educational Researcher, Vol. 47/4, pp. 235-245, https://doi.org/10.3102/0013189x18761042.
[80] Fleur, D., B. Bredeweg and W. van den Bos (2021), “Metacognition: ideas and insights from neuro- and educational sciences”, npj Science of Learning, Vol. 6/1, https://doi.org/10.1038/s41539-021-00089-5.
[55] Furtak, E. et al. (2012), “Experimental and Quasi-Experimental Studies of Inquiry-Based Science Teaching”, Review of Educational Research, Vol. 82/3, pp. 300-329, https://doi.org/10.3102/0034654312457206.
[4] Glover (2006), Evidence-based medicine pyramid.
[114] Godfrey, D. and C. Brown (2018), “How effective is the research and development ecosystem for England’s schools?”, London Review of Education, Vol. 16/1, https://doi.org/10.18546/lre.16.1.12.
[22] Goe, L., C. Bell and O. Little (2008), Approaches to Evaluating Teacher Effectiveness: A Research Synthesis, https://eric.ed.gov/?id=ED521228 (accessed on 19 March 2024).
[23] Goe, L. and L. Stickler (2008), Teacher quality and student achievement: Making the most of recent research, https://files.eric.ed.gov/fulltext/ED520769.pdf (accessed on 19 March 2024).
[19] Goldhaber, D., T. Gratz and R. Theobald (2017), “What’s in a teacher test? Assessing the relationship between teacher licensure test scores and student STEM achievement and course-taking”, Economics of Education Review, Vol. 61/C, pp. 112-122.
[92] Gorard, S., B. See and N. Siddiqui (2020), “What is the evidence on the best way to get evidence into use in education?”, Review of Education, Vol. 8/2, pp. 570-610, https://doi.org/10.1002/rev3.3200.
[110] Greany, T. and B. Maxwell (2017), “Evidence-informed innovation in schools: Aligning collaborative research and development with high quality professional learning for teachers”, International Journal of Innovation in Education, Vol. 4/2/3.
[108] Guerriero, S. (ed.) (2017), Pedagogical Knowledge and the Changing Nature of the Teaching Profession, Educational Research and Innovation, OECD Publishing, Paris, https://doi.org/10.1787/9789264270695-en.
[103] Gu, Q. (2020), The Research Schools Network: Supporting Schools to Develop Evidence-Informed Practice, https://educationendowmentfoundation.org.uk/public/files/RS_Evaluation.pdf. (accessed on 7 August 2024).
[83] Gutman, L. and I. Schoon (2013), The impact of non-cognitive skills on outcomes for young people, http://www.ioe.ac.uk (accessed on 7 August 2024).
[72] Hamre, B. and R. Pianta (2001), “Early Teacher–Child Relationships and the Trajectory of Children’s School Outcomes through Eighth Grade”, Child Development, Vol. 72/2, pp. 625-638, https://doi.org/10.1111/1467-8624.00301.
[117] Harn, B., D. Parisi and M. Stoolmiller (2013), “Balancing Fidelity with Flexibility and Fit: What Do We Really Know about Fidelity of Implementation in Schools?”, Exceptional Children, Vol. 79/3, pp. 181-193, https://doi.org/10.1177/001440291307900204.
[46] Hennessy, S. et al. (2021), “An analysis of the forms of teacher-student dialogue that are most productive for learning”, Language and Education, Vol. 37/2, pp. 186-211, https://doi.org/10.1080/09500782.2021.1956943.
[120] Hiebert, J. et al. (2007), “Preparing Teachers to Learn from Teaching”, Journal of Teacher Education, Vol. 58/1, pp. 47-61, https://doi.org/10.1177/0022487106295726.
[20] Hill, H., L. Kapitula and K. Umland (2011), “A Validity Argument Approach to Evaluating Teacher Value-Added Scores”, American Educational Research Journal, Vol. 48/3, pp. 794-831, https://doi.org/10.3102/0002831210387916.
[25] Ho, A. and T. Kane (2013), The Reliability of Classroom Observations by School Personnel, Measures of Effective Teaching Project.
[8] Hoffmann, T., S. Bennett and C. Del Ma (2017), Evidence-Based Practice Across the Health Professions, Elsevier.
[39] Hood Cattaneo, K. (2017), “Telling Active Learning Pedagogies Apart: from theory to practice”, Journal of New Approaches in Educational Research, Vol. 6/2, pp. 144-152, https://doi.org/10.7821/naer.2017.7.237.
[44] Howe, C. and M. Abedin (2013), “Classroom dialogue: a systematic review across four decades of research”, Cambridge Journal of Education, Vol. 43/3, pp. 325-356, https://doi.org/10.1080/0305764x.2013.786024.
[74] Howe, C. et al. (2019), “Teacher–Student Dialogue During Classroom Teaching: Does It Really Impact on Student Outcomes?”, Journal of the Learning Sciences, Vol. 28/4-5, pp. 462-512, https://doi.org/10.1080/10508406.2019.1573730.
[98] Ion, G., D. Diaz and J. Gairin (2019), Developing the teachers’ professional capital through research informed innovations.
[90] Jones, S. et al. (2021), Navigating SEL from the Inside Out: Looking Inside and Across 33 Leading SEL Programs: A Practical Resource for Schools and OST Providers; Preschool and Elementary Focus.
[62] Jussim, L. and K. Harber (2005), “Teacher Expectations and Self-Fulfilling Prophecies: Knowns and Unknowns, Resolved and Unresolved Controversies”, Personality and Social Psychology Review, Vol. 9/2, pp. 131-155, https://doi.org/10.1207/s15327957pspr0902_3.
[69] Khalfaoui, A., R. García-Carrión and L. Villardón-Gallego (2020), “A Systematic Review of the Literature on Aspects Affecting Positive Classroom Climate in Multicultural Early Childhood Education”, Early Childhood Education Journal, Vol. 49/1, pp. 71-81, https://doi.org/10.1007/s10643-020-01054-4.
[52] Kolb, A. and D. Kolb (2009), “Experiential Learning Theory: A Dynamic, Holistic Approach to Management Learning, Education and Development”, in The SAGE Handbook of Management Learning, Education and Development, SAGE Publications Ltd, 1 Oliver’s Yard, 55 City Road, London EC1Y 1SP United Kingdom , https://doi.org/10.4135/9780857021038.n3.
[42] Kyndt, E. et al. (2013), “A meta-analysis of the effects of face-to-face cooperative learning. Do recent studies falsify or verify earlier findings?”, Educational Research Review, Vol. 10, pp. 133-149, https://doi.org/10.1016/j.edurev.2013.02.002.
[14] Leinhardt, G. and J. Greeno (1986), “The cognitive skill of teaching.”, Journal of Educational Psychology, Vol. 78/2, pp. 75-95, https://doi.org/10.1037/0022-0663.78.2.75.
[113] Levine, T. and A. Marcus (2010), “How the structure and focus of teachers’ collaborative activities facilitate and constrain teacher learning”, Teaching and Teacher Education, Vol. 26/3, pp. 389-398, https://doi.org/10.1016/j.tate.2009.03.001.
[118] Mackenzie, N. (2007), “Teaching Excellence Awards: An Apple for the Teacher?”, Australian Journal of Education, Vol. 51/2, pp. 190-204, https://doi.org/10.1177/000494410705100207.
[31] Makel, M. and J. Plucker (2014), “Facts Are More Important Than Novelty”, Educational Researcher, Vol. 43/6, pp. 304-316, https://doi.org/10.3102/0013189x14545513.
[99] Malin, J. et al. (2020), “World-wide barriers and enablers to achieving evidence-informed practice in education: what can be learnt from Spain, England, the United States, and Germany?”, Humanities and Social Sciences Communications, Vol. 7/1, https://doi.org/10.1057/s41599-020-00587-8.
[121] Maxwell, B. and T. Greany (2017), “Evidence-informed innovation in schools: aligning collaborative research and development with high quality professional learning for teachers”, International Journal of Innovation in Education, Vol. 4/2/3, p. 147, https://doi.org/10.1504/ijiie.2017.10009078.
[51] Mayer, R. (2002), “Multimedia learning”, in Psychology of Learning and Motivation, Elsevier, https://doi.org/10.1016/s0079-7421(02)80005-6.
[49] Muijs, D. and C. Bokhove (2020), Metacognition and Self-Regulation: Evidence Review.
[124] Mulgan, G. (2024), Generative Shared Intelligence (GSI), https://demoshelsinki.fi/wp-content/uploads/2024/07/Demos-Helsinki-Generative-shared-intelligence-and-the-future-shape-of-government-Geoff-Mulgan.pdf (accessed on 2025 January 7).
[9] Murad, M. et al. (2016), “New evidence pyramid”, Evidence Based Medicine, Vol. 21/4, pp. 125-127, https://doi.org/10.1136/ebmed-2016-110401.
[58] Newman, M. (2021), The impact of feedback on student attainment: A systematic review.
[5] Nutley, S., A. Powell and H. Davies (2013), What counts as good evidence? Provocation paper for the Alliance for Useful Evidence, http://www.alliance4usefulevidence.org (accessed on 19 March 2024).
[40] OECD (2023), Who Really Cares about Using Education Research in Policy and Practice?: Developing a Culture of Research Engagement, Educational Research and Innovation, OECD Publishing, Paris, https://doi.org/10.1787/bc641427-en.
[93] OECD (2023), Who Really Cares about Using Education Research in Policy and Practice?: Developing a Culture of Research Engagement, Educational Research and Innovation, OECD Publishing, Paris, https://doi.org/10.1787/bc641427-en.
[85] OECD (2021), AI and the Future of Skills, Volume 1: Capabilities and Assessments, Educational Research and Innovation, OECD Publishing, Paris, https://doi.org/10.1787/5ee71f34-en.
[24] OECD (2020), Global Teaching InSights: A Video Study of Teaching, OECD Publishing, Paris, https://doi.org/10.1787/20d6f36b-en.
[94] OECD (2019), TALIS 2018 Results (Volume I): Teachers and School Leaders as Lifelong Learners, TALIS, OECD Publishing, Paris, https://doi.org/10.1787/1d0bc92a-en.
[27] Parra, J. and D. Edwards (2024), “Challenging the gold standard consensus: Randomised controlled trials (RCTs) and their pitfalls in evidence-based education”, Critical Studies in Education, pp. 1-18, https://doi.org/10.1080/17508487.2024.2314118.
[29] Pawson, R. (2006), Evidence-based Policy, SAGE Publications Ltd, 1 Oliver’s Yard, 55 City Road, London England EC1Y 1SP United Kingdom , https://doi.org/10.4135/9781849209120.
[50] Perry, J., D. Lundie and G. Golder (2018), “Metacognition in schools: what does the literature suggest about the effectiveness of teaching metacognition in schools?”, Educational Review, Vol. 71/4, pp. 483-500, https://doi.org/10.1080/00131911.2018.1441127.
[30] Perry, T., R. Morris and R. Lea (2022), “A decade of replication study in education? A mapping review (2011–2020)”, Educational Research and Evaluation, Vol. 27/1-2, pp. 12-34, https://doi.org/10.1080/13803611.2021.2022315.
[13] Pollard, A. (2010), “Professionalism and Pedagogy: a contemporary opportunity”, Teaching and Learning Research Programme.
[15] Praetorius, A., N. McIntyre and R. Klassen (2017), “Reactivity effects in video-based classroom research: an investigation using teacher and student questionnaires as well as teacher eye-tracking”, in Videobasierte Unterrichtsforschung, Springer Fachmedien Wiesbaden, https://doi.org/10.1007/978-3-658-15739-5_3.
[82] Puttick, S. and A. Cullinane (2021), “Towards the Nature of Geography for geograph education: an exploratory account, learning from work on the Nature of Science”, Journal of Geography in Higher Education, Vol. 46/3, pp. 343-359.
[18] Reinholz, D. and N. Shah (2018), “Equity analytics: A methodological approach for quantifying participation patterns in mathematics classroom discourse”, Journal for Research in Mathematics Education, Vol. 2/49.
[16] Rowan, B. and R. Correnti (2009), “Studying Reading Instruction With Teacher Logs: Lessons From the Study of Instructional Improvement”, Educational Researcher, Vol. 38/2, pp. 120-131, https://doi.org/10.3102/0013189x09332375.
[81] Ruiz-Primo, M. (2011), “Informal formative assessment: The role of instructional dialogues in assessing students’ learning”, Studies in Educational Evaluation, Vol. 37/1, pp. 15-24, https://doi.org/10.1016/j.stueduc.2011.04.003.
[86] Sabol, T. and R. Pianta (2012), “Recent trends in research on teacherchild relationships”, Attachment & Human Development, Vol. 14/3, pp. 213-231.
[63] Sanchez, C. et al. (2017), “Self-grading and peer-grading for formative and summative assessments in 3rd through 12th grade classrooms: A meta-analysis.”, Journal of Educational Psychology, Vol. 109/8, pp. 1049-1066, https://doi.org/10.1037/edu0000190.
[17] Schweig, J. (2016), “Moving beyond means: revealing features of the learning environment by investigating the consensus among student ratings”, Learning Environments Research, Vol. 19/3, pp. 441-462, https://doi.org/10.1007/s10984-016-9216-7.
[47] Sedova, K. et al. (2019), “Do those who talk more learn more? The relationship between student classroom talk and student achievement”, Learning and Instruction, Vol. 63, p. 101217, https://doi.org/10.1016/j.learninstruc.2019.101217.
[119] Seppala, N. and C. Smith (2019), “Teaching awards in higher education: a qualitative study of motivation and outcomes”, Studies in Higher Education, Vol. 45/7, pp. 1398-1412, https://doi.org/10.1080/03075079.2019.1593349.
[107] Sharples, J. (2013), EVIDENCE FOR THE FRONTLINE A REPORT FOR THE ALLIANCE FOR USEFUL EVIDENCE, http://www.alliance4usefulevidence.org (accessed on 19 March 2024).
[35] Sims, S. et al. (2022), “Quantifying “Promising Trials Bias” in Randomized Controlled Trials in Education”, Journal of Research on Educational Effectiveness, Vol. 16/4, pp. 663-680, https://doi.org/10.1080/19345747.2022.2090470.
[59] Smale-Jacobse, A. et al. (2019), “Differentiated Instruction in Secondary Education: A Systematic Review of Research Evidence”, Frontiers in Psychology, Vol. 10, https://doi.org/10.3389/fpsyg.2019.02366.
[21] Stacey, K. and R. Turner (eds.) (2015), Assessing Mathematical Literacy, Springer International Publishing, Cham, https://doi.org/10.1007/978-3-319-10121-7.
[75] Steponavičius, M., C. Gress-Wright and A. Linzarini (2023), “Social and emotional skills: Latest evidence on teachability and impact on life outcomes”, OECD Education Working Papers, No. 304, OECD Publishing, Paris, https://doi.org/10.1787/ba34f086-en.
[6] Stimson Library Medical Center of Excellence (n.d.), Evidence-Based Practice: Evidence Pyramid, https://amedd.libguides.com/ebp (accessed on 19 March 2024).
[64] Stockard, J. et al. (2018), “The Effectiveness of Direct Instruction Curricula: A Meta-Analysis of a Half Century of Research”, Review of Educational Research, Vol. 88/4, pp. 479-507, https://doi.org/10.3102/0034654317751919.
[104] SUMMA (2023), Effective Education Practices Platform, https://practicas.summaedu.org/en/what-is-it-platform/what-is-it-main-objectives/ (accessed on 13 August 2024).
[105] Sutton Trust (2024), News and Findings - NFER; School Funding and Pupil Premium 2024, https://www.suttontrust.com/our-research/school-funding-and-pupil-premium-2024/ (accessed on 7 August 2024).
[78] Sweller, J. et al. (2024), “Response to De Jong et al.’s (2023) paper “Let’s talk evidence – The case for combining inquiry-based and direct instruction””, Educational Research Review, Vol. 42, p. 100584, https://doi.org/10.1016/j.edurev.2023.100584.
[71] Takacs, Z. and R. Kassai (2019), “The efficacy of different interventions to foster children’s executive function skills: A series of meta-analyses.”, Psychological Bulletin, Vol. 145/7, pp. 653-697, https://doi.org/10.1037/bul0000195.
[28] Thomas, G. (2016), “After the Gold Rush: Questioning the “Gold Standard” and Reappraising the Status of Experiment and Randomized Controlled Trials in Education”, Harvard Educational Review, Vol. 86/3, pp. 390-411, https://doi.org/10.17763/1943-5045-86.3.390.
[88] Tolmie, A. et al. (2010), “Social effects of collaborative learning in primary schools”, Learning and Instruction, Vol. 20/3, pp. 177-191, https://doi.org/10.1016/j.learninstruc.2009.01.005.
[2] Torres, J. and M. Steponavičius (2022), “More than just a go-between: The role of intermediaries in knowledge mobilisation”, OECD Education Working Papers, No. 285, OECD Publishing, Paris, https://doi.org/10.1787/aa29cfd3-en.
[123] Ulferts, H. (2019), “The relevance of general pedagogical knowledge for successful teaching: Systematic review and meta-analysis of the international evidence from primary to tertiary education”, OECD Education Working Papers, No. 212, OECD Publishing, Paris, https://doi.org/10.1787/ede8feb6-en.
[7] University of Canberra Library (n.d.), Evidence-based practice in health, https://canberra.libguides.com/c.php?g=599346&p=4149721 (accessed on 19 March 2024).
[1] Van Damme, D. (2022), The Power of Proofs (Much) Beyond RCTs, http://www.curriculumredesign.org (accessed on 19 March 2024).
[61] van de Pol, J. et al. (2015), “The effects of scaffolding in the classroom: support contingency and student independent working time in relation to student achievement, task effort and appreciation of support”, Instructional Science, Vol. 43/5, pp. 615-641, https://doi.org/10.1007/s11251-015-9351-z.
[43] van Leeuwen, A. and J. Janssen (2019), “A systematic review of teacher guidance during collaborative learning in primary and secondary education”, Educational Research Review, Vol. 27, pp. 71-89, https://doi.org/10.1016/j.edurev.2019.02.001.
[34] Vasishth, S. et al. (2018), “The statistical significance filter leads to overoptimistic expectations of replicability”, Journal of Memory and Language, Vol. 103, pp. 151-175, https://doi.org/10.1016/j.jml.2018.07.004.
[11] Wadhwa, M., J. Zheng and T. Cook (2023), “How Consistent Are Meanings of “Evidence-Based”? A Comparative Review of 12 Clearinghouses that Rate the Effectiveness of Educational Programs”, Review of Educational Research, Vol. 94/1, pp. 3-32, https://doi.org/10.3102/00346543231152262.
[96] Walker, M., J. Nelson and S. Bradshaw (2019), Teachers’ engagement with research: what do we know? A research briefing Independent researchers, http://www.educationendowmentfoundation.org.uk (accessed on 19 March 2024).
[48] Wang, M. and J. Eccles (2013), “School context, achievement motivation, and academic engagement: A longitudinal study of school engagement using a multidimensional perspective”, Learning and Instruction, Vol. 28, pp. 12-23, https://doi.org/10.1016/j.learninstruc.2013.04.002.
[68] Wang, M. et al. (2020), “Classroom climate and children’s academic and psychological wellbeing: A systematic review and meta-analysis”, Developmental Review, Vol. 57, p. 100912, https://doi.org/10.1016/j.dr.2020.100912.
[87] Wentzel, K. and D. Watkins (2022), “Peer relationships and collaborative learning as contexts for academic enablers”, School Psychology Review, Vol. 31/3, pp. 366-377.
[101] Williams, D. and L. Coles (2007), “Evidence‐based practice in teaching: an information perspective”, Journal of Documentation, Vol. 63/6, pp. 812-835, https://doi.org/10.1108/00220410710836376.
[36] Wolf, R. et al. (2020), “Average Effect Sizes in Developer-Commissioned and Independent Evaluations”, Journal of Research on Educational Effectiveness, Vol. 13/2, pp. 428-447, https://doi.org/10.1080/19345747.2020.1726537.
[26] Wrigley, T. and S. McCusker (2019), “Evidence-based teaching: a simple view of “science””, Educational Research and Evaluation, Vol. 25/1-2, pp. 110-126, https://doi.org/10.1080/13803611.2019.1617992.
[77] Xu, L. and D. Clarke (2019), “Speaking or not speaking as a cultural practice: analysis of mathematics classroom discourse in Shanghai, Seoul, and Melbourne”, Educational Studies in Mathematics, Vol. 102/1, pp. 127-146, https://doi.org/10.1007/s10649-019-09901-x.
[106] Yeager, D. et al. (2021), “Teacher Mindsets Help Explain Where a Growth-Mindset Intervention Does and Doesn’t Work”, Psychological Science, Vol. 33/1, pp. 18-32, https://doi.org/10.1177/09567976211028984.
[89] Yeager, D., R. Dahl and C. Dweck (2017), “Why Interventions to Influence Adolescent Behavior Often Fail but Could Succeed”, Perspectives on Psychological Science, Vol. 13/1, pp. 101-122, https://doi.org/10.1177/1745691617722620.
[67] Yibing Li, A. et al. (2011), “Peer relationships as a context for the development of school engagement during early adolescence”, International Journal of Behavioral Development, Vol. 35/4, pp. 329-342, https://doi.org/10.1177/0165025411402578.
Annex 7.A. Resumen de los ‘Puntos fuertes y limitaciones de la base de evidencia’
Copiar enlace a Annex 7.A. Resumen de los ‘Puntos fuertes y limitaciones de la base de evidencia’Cuadro del anexo 7.A.1. Resumen de los puntos fuertes y las limitaciones de las prácticas pedagógicas básicas de la Taxonomía de Schools+
Copiar enlace a Cuadro del anexo 7.A.1. Resumen de los puntos fuertes y las limitaciones de las prácticas pedagógicas básicas de la Taxonomía de Schools+|
Taxonomía de Schools+ |
Desglose de puntos fuertes y limitaciones notables |
|||||||
|---|---|---|---|---|---|---|---|---|
|
Dimensiones |
Subdimensiones (Taxonomía 1.0) |
Nivel de evidencia propuesto |
Número de estudios y diseños de investigación |
Consistencia de los resultados |
Niveles educativos considerados principalmente P: contextos de enseñanza primaria S: contextos de enseñanza secundaria |
Materias consideradas principalmente M: Matemáticas Alf: Alfabetización Ci: Ciencias |
Contextos considerados principalmente: R: Contextos con muchos recursos L: Estudios de laboratorio D: Diversos contextos EA: Estudios antiguos EPE: Estudios a pequeña escala PE: Programas escolares |
Cuestiones prioritarias para un futuro programa de investigación |
|
Interacción en el aula |
Colaboración |
Sólido |
Sólido número de metaanálisis y otros estudios con diversos diseños de investigación. |
P |
M Ci Alf |
G |
Sigue siendo necesario realizar más evaluaciones independientes |
|
|
Debate y diálogo en clase |
Sólido |
Sólido número de estudios correlacionales a gran escala con resultados razonablemente consistentes. |
P |
M Ci Alf |
R |
Cómo funciona esta práctica para los diversos orígenes de los estudiantes. |
||
|
Preguntas y respuestas |
Fuerte |
Gran número de estudios con diversos diseños de investigación, con resultados razonablemente consistentes en diferentes contextos estudiantiles. |
EA D |
Cuáles son los efectos de determinados tipos de preguntas. |
||||
|
Cómo funcionan las combinaciones de preguntas. |
||||||||
|
Compromiso cognitivo |
Garantizar un nivel adecuado de desafío |
Sólido |
Algunos estudios correlacionales de observación, pero una limitación es la variación conceptual de cómo se define "desafío" en estos estudios. |
L |
Mayor claridad conceptual. Cómo medir el compromiso cognitivo. Cuáles son los mecanismos exactos que impulsan el compromiso cognitivo. |
|||
|
Alguna evidencia de diseños experimentales. |
||||||||
|
Fluidez y flexibilidad |
N / A |
Según la Tabla 2, se reconceptualizará con Contenido Temático de Calidad. |
||||||
|
Metacognición |
Sólido / Fuerte |
Sólido número de metaanálisis y otros estudios con diversos diseños de investigación. |
Mayor comprensión de la naturaleza específica de determinados mecanismos. |
|||||
|
Trabajar con múltiples enfoques y representaciones |
Sólido |
Algunos estudios empíricos sólidos sobre la teoría de la doble codificación. |
M Ci |
L |
Comprender los efectos de la práctica en un mayor número de materias. |
|||
|
Alguna evidencia de diseños experimentales. |
||||||||
|
Facilitar experiencias de primera mano |
Prometedor / Sólido |
Algunos estudios empíricos sólidos con jóvenes estudiantes muestran resultados positivos. |
Algunos resultados mixtos con alumnos mayores. |
P |
Ci |
Comprender los efectos de la práctica con estudiantes de más edad, y a través de una serie de resultados (por ejemplo, aprendizaje, motivación). |
||
|
Contexto significativo y conexiones con el mundo real |
Prometedor |
Algunos estudios empíricos sólidos. |
Los resultados varían: algunos muestran que apenas hay diferencias. También hay variaciones por grupos de edad |
Contexto significativo y conexiones con el mundo real |
Prometedor |
Algunos estudios empíricos sólidos. |
||
|
Cuestión de medir lo "significativo". |
||||||||
|
Evaluación formativa y retroalimentación |
Objetivos de aprendizaje |
Fuerte |
Gran número de estudios con diversos diseños de investigación, de varios años. |
D |
Evidencia empírica de distintos tipos de objetivos de aprendizaje. |
|||
|
Diagnóstico del aprendizaje del estudiante |
Sólido |
Sólido número de estudios principalmente correlacionales. |
D |
Comprender con más detalle el papel que desempeñan los distintos tipos de estímulos, incluidas las tareas, en la generación de efectos. |
||||
|
Algunos estudios empíricos sólidos recientes. |
||||||||
|
Retroalimentación |
Fuerte |
Gran número de metaanálisis y otros estudios con diversos diseños de investigación, de varios años. |
D |
Efectos a largo plazo de distintos tipos de retroalimentación en la retención de aprendizaje. |
||||
|
Adaptación al modo de pensar de los alumnos |
Sólido |
Un sólido número de estudios principalmente correlacionales, de varios años. |
Adaptación al modo de pensar de los alumnos |
Sólido |
||||
|
La "alineación" puede conceptualizarse y operacionalizarse de forma diferente en los estudios. |
||||||||
|
Contenido temático de calidad |
Explicaciones y exposiciones |
Prometedor |
Algunos estudios correlacionales, pero es difícil aislar el papel exacto de las explicaciones. |
R EPE |
Definir con mayor precisión en qué consiste una explicación de alta calidad. |
|||
|
Sólido número de estudios sobre el uso de ejemplos trabajados y teoría de la variación. |
||||||||
|
Naturaleza de la asignatura |
Prometedor |
Algunos estudios empíricos a pequeña escala. |
Ci M |
R EPE |
Trabajo empírico a mayor escala para comprender los efectos sobre los diferentes resultados de los estudiantes. |
|||
|
Número limitado de estudios empíricos sólidos. |
||||||||
|
Establecer conexiones |
Prometedor / Sólido |
Sólido número de estudios de psicología y estudios teóricos. |
M |
L |
Comprender exactamente qué conexiones temáticas tienen valor. |
|||
|
Exploración de patrones y generalizaciones |
Prometedor |
Número limitado de estudios empíricos sólidos. |
||||||
|
Algunos estudios correlacionales, pero es difícil aislar el papel exacto de las explicaciones. Fusionados según la Tabla 2. |
||||||||
|
Procedimientos y métodos explícitos |
Prometedor |
Según la Tabla 2, se reconceptualizará con Explicaciones y Exposiciones |
||||||
|
Claridad y precisión |
Sólido |
Sólido número de estudios correlacionales sobre la presentación de contenidos bien estructurados y coherentes. |
M |
L |
Comprender las características de un contenido bien estructurado en una mayor variedad de temas. |
|||
|
Sólido número de estudios sobre la secuenciación de contenidos y oportunidades de aprendizaje, con resultados razonablemente coherentes. |
||||||||
|
Apoyo socioemocional |
Crear un clima de apoyo en el aula |
Sólido |
Algunos estudios correlacionales a gran escala. |
Resultados contradictorios en torno a determinados constructos (por ejemplo, perseverancia y mentalidad de crecimiento). |
Mayor claridad conceptual. |
|||
|
Algunos metaanálisis muestran resultados positivos. |
Cómo medir constructos comunes como el respeto y la calidez. |
|||||||
|
Una de las limitaciones reside en la variación de cómo se conceptualiza el clima. |
Cómo pueden variar los climas según los distintos sujetos. |
|||||||
|
Construcción de relaciones (estudiante-estudiante) |
Prometedor / Sólido |
Algunos estudios empíricos sólidos sobre cooperación, apoyados por algunos estudios cualitativos. |
Los resultados sobre cooperación varían, pero los estudios cualitativos son consistentes. |
D |
Cómo medir las relaciones. |
|||
|
Cuestión de medir las relaciones. |
||||||||
|
Construcción de relaciones (docente-estudiante) |
Sólido |
Algunos estudios correlacionales a gran escala, en los que tanto la percepción de los alumnos como la de los docentes sobre las relaciones positivas predicen resultados positivos. |
D |
Cómo medir las relaciones. |
||||
|
Enseñanza explícita y práctica activa de las habilidades socioemocionales |
Prometedor / Sólido |
Algunos estudios empíricos sólidos y algunos metaanálisis. |
Resultados mixtos con los alumnos de más edad. |
P |
PE |
Hasta qué punto son generalizables ciertos resultados a los estudiantes de más edad. |
||
Nota: Las calificaciones de los niveles de evidencia fueron facilitadas por los 26 académicos y organizaciones de intermediación del conocimiento que participaron en el ejercicio de revisión por expertos. También se invitó a los participantes a que aportaran información cualitativa sobre la justificación de sus puntuaciones. Otros 17 académicos y organizaciones aportaron información cualitativa sobre la conceptualización de las prácticas y el alcance de su evidencia (véase el Anexo A: Metodología).
1. Las calificaciones se definieron del siguiente modo (i) Emergente: La evidencia es principalmente teórica y hay poca evidencia empírica sólida, o la evidencia se limita a contextos y/o estudiantes específicos; (ii) Prometedor: La base de investigación se está desarrollando y resulta prometedora, pero puede que todavía se dependa más de estudios teóricos que de estudios empíricos sólidos, incluidos estudios experimentales, y/o que exista un alto grado de variación en los estudios. (iii) Sólido: la base de investigación es sólida, con un buen número de estudios empíricos sólidos, incluidos estudios experimentales, y una sólida comprensión de cómo pueden variar los efectos en los distintos contextos; y, (iv) Fuerte: la base de investigación es fuerte, con un gran número de estudios empíricos sólidos, incluidos estudios experimentales, y un alto grado de consenso en torno a los mecanismos que impulsan los resultados y cómo varían en los distintos contextos. También hay estudios observacionales y transversales que contribuyen a la base empírica.