PIRLS 2021. Estudio Internacional de Progreso en C
PIRLS 2021. Estudio Internacional de Progreso en C
PIRLS 2021. Estudio Internacional de Progreso en C
Ministerio de
2021
Educación y
Formación Profesional
Madrid 2023
Catálogo de publicaciones del Ministerio: https://sede.educacion.gob.es/publiventa
MINISTERIO DE EDUCACIÓN
Y FORMACIÓN PROFESIONAL
Secretaría de Estado de Educación
Dirección General de Evaluación y Cooperación Territorial
Instituto Nacional de Evaluación Educativa www.educacion.gob.es/inee
Edita:
© SECRETARÍA GENERAL TÉCNICA
Subdirección General de Atención al Ciudadano, Documentación y Publicaciones
Edición: 2023
NIPO línea: 847-23-069-1
NIPO IBD: 847-23-068-6
Para el diseño de la portada se ha utilizado una imagen creada mediante IA. Platform, MidJourney, Version 5.
Para la contraportada y portadillas se han empleado vectores e iconos creados por Freepik desde www.flaticon.com.
Índice
En efecto, como ocurriera en todos los ámbitos de la sociedad, el mundo educativo se vio
trastocado y sacudido por este acontecimiento sanitario global y disruptivo. Especialmente
en 2020, el año más duro de la pandemia, se cerraron centros educativos en muchos países.
El proceso enseñanza-aprendizaje sufrió una apresurada adaptación digital que logró paliar,
en alguna medida, la pérdida de transferencia de contenidos, al tiempo que permitió
mantener un contacto virtual entre alumnado y profesorado, elementos siempre esenciales
en cualquier sistema educativo, pero mucho más en estas graves e insólitas circunstancias.
Sin el esfuerzo, disposición y eficacia en el uso de recursos mostrado por docentes y
alumnado, y sin la acertada coordinación de los equipos directivos, no hubiera sido posible
mantener el sistema activo, aunque fuera bajo mínimos.
Si bien esos mínimos se lograron, la evaluación, a todos los niveles, se vio profundamente
afectada. Las previsiones de los estudios internacionales se evidenciaron imposibles de
cumplir, al menos durante el curso 2020-2021. Los esfuerzos se centraron en intentar
mantener las pautas suficientes que garantizaran la continuidad en la recogida de datos. A
medida que en cada país la situación sanitaria lo iba permitiendo, y de nuevo con el apoyo
fundamental de todos los integrantes de los distintos sistemas educativos, se fueron
recogieron datos y, si bien esto no se pudo hacer de manera homogénea y simultánea en
todos los países y regiones, sí se consiguió que se mantuvieran las pautas que permiten
medir tendencias.
En nuestro país, que participa en el estudio PIRLS desde 2006, se publicaron los informes
correspondientes en los años 2007, 2012 y 2017. Presentamos ahora, en mayo de 2023, el
cuarto informe, que debía haberse publicado en diciembre de 2022. Esta publicación
contiene la información obtenida en más de 500 centros de nuestro país, lo que supone una
6 |
amplia muestra, más que suficiente para, a pesar de las circunstancias excepcionales,
garantizar una continuidad en la recogida de datos que permita analizar e interpretar cómo
se desarrolló el proceso de adquisición de la capacidad lectora en nuestros alumnos y
alumnas de 4.º curso de Educación Primaria.
Además de un documento técnico, este informe también quiere ser un agradecido testimonio
de un esfuerzo compartido con Administraciones Educativas y centros escolares durante un
periodo complejo y difícil.
| 7
Capítulo 1
PIRLS 2021
Estudio Internacional de Progreso
en Comprensión Lectora
El estudio PIRLS 2021 cumple 20 años: es el referente mundial para el análisis
del rendimiento en lectura para el alumnado de 4.º grado (4.º de Educación
Primaria en España).
En PIRLS 2021 se han recogido datos de:
En España
PIRLS 2021 constituye el quinto ciclo de esta evaluación internacional a gran escala tras
PIRLS 2001, 2006, 2011 y 2016. El número de países participantes en PIRLS crece con cada
evaluación. En PIRLS 2021 han participado 57 países y 8 participantes de referencia, entre
los cuales muchos de ellos ya habían estado presentes en ciclos previos desde la edición
de 2001. España participa desde 2006, por lo que PIRLS 2021 constituye la cuarta de una
serie de mediciones de las tendencias de rendimiento en lectura recopiladas a lo largo de
15 años. Además, nueve de las comunidades y ciudades autónomas (Andalucía, Principado
de Asturias, Canarias, Castilla y León, Cataluña, Ceuta, Comunidad de Madrid, Melilla y
Comunidad Foral de Navarra) han ampliado muestra en 2021 para obtener datos
representativos propios.
Además del análisis del rendimiento, PIRLS proporciona información detallada sobre los
contextos educativos del aprendizaje de la lectura en cada uno de los países participantes.
Los documentos que recogen estos datos y que serán descritos a lo largo de este capítulo
son: los cuestionarios del centro escolar, profesorado y alumnado, así como la Enciclopedia
PIRLS 2021 (Reynolds, Wry, Mullis y von Davier, 2022), en la que cada país participante da
cuenta de la enseñanza y el currículo de lectura en su territorio.
| 11
1 El estudio PIRLS
Fuente: elaboración propia basada en la Tabla 1 del capítulo About PIRLS 2021 del Informe internacional, https://
pirls2021.org/results
Como se puede observar en la Tabla 1.2, la mayoría de los países de PIRLS 2021 evaluaron
a su alumnado al finalizar el 4.º grado escolar (como se ha señalado, el equivalente a 4.º de
Educación Primaria, en nuestro país) según la planificación original de la evaluación. Entre
estos se incluyen los países del hemisferio norte que recopilaron datos durante los meses
de marzo a junio de 2021, así como los países del hemisferio sur cuya recogida tuvo lugar
durante los meses de octubre a noviembre de 2020.
1
Los países con asterisco participaron en la evaluación en formato digital. En cuanto a las celdas sombreadas: Noruega
realizó la evaluación en 5.º grado y Sudáfrica participó como entidad de referencia con alumnado de 6.º grado.
Sin embargo, algunos países del hemisferio norte tuvieron que retrasar la evaluación de su
alumnado seleccionado hasta el comienzo de 5.º grado (el equivalente a 5.º de Educación
Primaria, en nuestro país), de agosto a diciembre de 2021, y otros evaluaron a su alumnado
de 4.º grado un año después de lo previsto originalmente (de agosto a diciembre de 2021
para el hemisferio sur y de marzo a julio de 2022 para el hemisferio norte).
Tabla 1.2. Países participantes en PIRLS 2021 por orden cronológico de la recogida de datos
Evaluación retrasada
Evaluación de los estudiantes seleccionados de 4.º grado al comienzo de su 5.º
grado
Agosto-diciembre 2021
Hemisferio norte
Arabia Saudí Hungría PARTICIPANTES DEREFERENCIA
Baréin Irlanda Quebec, Canadá
Catar Irlanda del Norte Abu Dabi, EAU
Croacia Kazajistán Dubái, EAU
Emiratos Arabes Unidos Letonia
Estados Unidos Lituania
Georgia Marruecos
Fuente: elaboración propia basada en la Tabla 5 del capítulo About PIRLS 2021 del Informe internacional PIRLS 2021,
https://pirls2021.org/results
El hecho de que se haya modificado el calendario de aplicación, y que en algunos países los
estudiantes evaluados fueran mayores de lo que hubieran sido según la previsión original,
puede haber tenido un impacto en los resultados.
A continuación, la Tabla 1.3 muestra la edad promedio del alumnado evaluado en PIRLS 2016
y el evaluado en PIRLS 2021 por ventana de recopilación de datos.
Tabla 1.3. Edad promedio del alumnado evaluado en PIRLS 2021 y en PIRLS 2016
Fuente: elaboración propia basada en el capítulo About PIRLS 2021, del Informe internacional PIRLS 2021, https://
pirls2021.org/results
En este informe, tanto los resultados de rendimiento como los análisis de variables de
contexto se presentarán, con carácter general, bajo las siguientes premisas: para obtener el
Promedio OCDE-28 se hará la media aritmética de las variables a analizar de los territorios
miembros de la OCDE que han participado en este estudio, que son 24 países de la OCDE
y 4 regiones adjudicatarias que forman parte de un país de la OCDE (Bélgica flamenca,
Bélgica francófona, Inglaterra e Irlanda del Norte); para el cálculo del Total Unión Europea
(UE) se tendrá en cuenta la suma de los pesos de los estudiantes como estimación del
tamaño de la población objetivo, es decir, los estudiantes de los 22 países de la UE que
participaron en PIRLS 2021 y también los estudiantes de Bélgica flamenca (Fl.) y Bélgica
francófona (Fr.); el Total UE, a diferencia del Promedio OCDE, tiene en cuenta el conjunto de
estudiantes de la Unión Europea que participa en PIRLS en cada país, no el valor promedio
de la puntuación de los países.
Los resultados globales de España y de las nueve comunidades y ciudades autónomas que
han ampliado muestra en la edición actual del estudio se analizan en este informe
comparándolos con los resultados de los países seleccionados, el promedio del conjunto de
países de la OCDE participantes y el total de la Unión Europea participante en esta edición.
Adicionalmente, se identificarán en las figuras de este informe aquellos países que realizaron
la prueba en formato papel mediante la leyenda (p) junto a su nombre. Sin embargo, no se
hará distinción entre las ventanas de aplicación en las que realizaron el estudio PIRLS.
La prueba ePIRLS es una innovadora evaluación de la lectura en línea, con un entorno web
simulado para el estudiante. Nace del hecho de que la lectura en internet es cada vez más
frecuente, siendo una de las principales vías a través de las cuales el alumnado adquiere
información. El complemento ePIRLS consiste en una evaluación de lectura basada en
ordenador en la que, a través de un atractivo entorno de internet, el alumnado realiza tareas
escolares que simulan situaciones relacionadas con temas de ciencias y sociales (ver vídeo
de la tarea ePIRLS Océanos).
Entre las ventajas que proporciona una evaluación digital están las que tienen que ver con
las mejoras en la medida porque, entre otras cosas, se incrementa la motivación del alumnado
gracias a la interactividad y al diseño más atractivo. Además, se mejora la eficiencia operativa,
ya que se optimizan los procesos de creación de los ítems, preparación de los instrumentos,
corrección de las pruebas y recogida de datos.
Para poder realizar con fiabilidad la transición al entorno digital, fue necesario que los países
que administraban la evaluación digitalPIRLS implementaran un diseño de recopilación de
datos que involucró dos muestras de estudiantes: la muestra principal de alrededor de 4500
estudiantes y una segunda muestra más pequeña “puente” de una calidad comparable a la
muestra principal (alrededor de 1500 estudiantes). Los estudiantes de la muestra principal
realizaron la evaluación digital, mientras que a la muestra adicional de estudiantes se le
administraron los ítems de tendencia o anclaje de PIRLS 2021 en el formato de papel de
PIRLS 2016. Esto dio como resultado muestras equivalentes de estudiantes en cada país que
respondieron a los ítems de tendencia en formato impreso y digital, lo que permitió unir la
escala de tendencias de PIRLS 2016 en papel a la de PIRLS 2021 en formato digital.
El estudio PIRLS se basa en una noción amplia de lo que significa la capacidad de leer, una
noción que incluye leer por el placer que genera al permitirnos experimentar distintos
mundos, otras culturas y multitud de nuevas ideas.
Esta visión de la lectura refleja las numerosas teorías que analizan la competencia lectora
como un proceso constructivo e interactivo (Anderson y Pearson, 1984; Chall, 1983; Kintsch,
1998, 2012 y 2013; Ruddell y Unrau, 2004; Rumelhart, 1985). El significado se construye a
través de la interacción entre el lector y el texto en el contexto de una experiencia lectora
concreta (Britt, Goldman y Rouet, 2012; Snow, 2002). Se considera que los lectores construyen
A fin de adquirir conocimiento sobre el mundo y sobre sí mismos, los lectores pueden
aprender de multitud de tipos de textos. Cualquier tipo de texto puede adoptar muchos
formatos y combinaciones de formatos. Entre ellas se encuentran las formas escritas
tradicionales, tales como libros, revistas, documentos y periódicos, así como formatos
digitales que incluyen las numerosas formas de comunicación a través de internet y páginas
web en las que el texto suele integrarse con diversos formatos multimedia (Leu, Kinzer, Coiro
y Cammack, 2004; Leu, Kinzer, Coiro, Castek y Henry, 2013; Rosell y Pahl, 2010; Reuda, 2013).
Cada vez más, la lectura en internet es un componente clave de los currículos y una de las
formas principales mediante la cual los estudiantes adquieren información (Leu, O’Byrne,
Zawilinski, McVerry, y Everett-Cacopardo, 2009; Purcell et al. 2012; Tondeur, van Braak, y
Valcke, 2007). Nuevas competencias en lectura digital son necesarias para leer en internet,
donde un lector competente es alguien que puede cumplir sus objetivos de lectura buscando
y comprendiendo de forma eficaz la información objetivo (Afflerbach y Cho, 2009; Alexander,
2012; Bawden, 2008; Coiro y Kennedy, 2011; Leu, Kinzer, Coiro, Castek y Henry, 2013).
Dado que internet es una red no lineal de textos distribuidos en numerosas páginas web, la
búsqueda y el aprendizaje de información en este medio implican la compresión de la
información dispuesta dentro de este complejo entorno de lectura (Goldman, 2014; Goldman,
Lawless y Manning, 2013; Singer y Alexander, 2017; Strømsø, 2017). Mientras que los textos
impresos tradicionales suelen leerse de forma lineal, la lectura en línea consiste en la
búsqueda dentro de una red de múltiples textos en los que los lectores son responsables de
crear sus propios recorridos. Primero, los lectores deben acceder a la página web adecuada
y, después, usar estrategias de navegación (p. ej., menús, pestañas y enlaces de navegación)
para moverse de forma eficaz dentro de una página web o pasar a la siguiente.
Ya sea leyendo textos en línea o impresos, debatir sobre lo que han leído con diferentes
grupos de estudiantes permite al alumnado construir el significado de un texto en una
variedad de contextos (Almasi y Garas-York, 2009; Murphy, Wilkinson, Soter, Hennessey y
Alexander, 2009). Las interacciones sociales relacionadas con la lectura en una o más
comunidades de lectores pueden ser decisivas para ayudar a los estudiantes a adquirir un
entendimiento y una apreciación de los textos y otras fuentes de información (Galda y Beach,
2001; Kucer, 2005). Los entornos construidos socialmente en el aula o biblioteca escolar
pueden ofrecer a los estudiantes oportunidades formales e informales para ampliar sus
perspectivas y ver la lectura como una experiencia compartida con sus compañeros de
clase y docentes (Alvermann y Moje, 2013; Guthrie, 1996). Esto puede ampliarse a comunidades
externas al entorno escolar, dado que los estudiantes jóvenes hablan con sus familias y
amigos sobre las ideas y la información adquiridas a partir de la lectura.
Propósitos de lectura
Tener una experiencia literaria
Adquirir y usar la información
Procesos de comprensión
Localización y obtención de información explícita
Extracción de conclusiones directas
Interpretación e integración de ideas e informaciones
Análisis y evaluación del contenido y los elementos textuales
Fuente: elaboración propia basada en los Marcos de la evaluación PIRLS 2021 (Mullis y Martin, 2019), https://pirls2021.
org/frameworks/index.html
La Tabla 1.5 refleja los porcentajes que se destinan a cada propósito de lectura y a cada uno
de los procesos de comprensión que se evalúan en PIRLS y en la evaluación de la lectura en
línea, ePIRLS.
PIRLS ePIRLS
Propósitos de lectura
Tener una experiencia literaria 50 % 0%
Adquirir y usar la información 50 % 100 %
Procesos de comprensión
Localización y obtención de información explícita 20 % 20 %
Extracción de conclusiones directas 30 % 30 %
Interpretación e integración de ideas e informaciones 30 % 30 %
Análisis y evaluación del contenido y los elementos textuales 20 % 20 %
Fuente: elaboración propia basada en los Marcos de la evaluación PIRLS 2021 (Mullis y Martin, 2019), https://pirls2021.
org/frameworks/index.html
Propósitos de lectura
Dado que ambos propósitos de lectura son importantes para los estudiantes, la evaluación
PIRLS contiene la misma proporción de material para evaluar cada propósito. No obstante, y
teniendo en cuenta que gran parte de la lectura en línea se realiza con el propósito de
obtener información, las tareas de ePIRLS se centran específicamente en la lectura para
adquirir y usar información.
Los textos PIRLS se clasifican según sus propósitos principales, y las preguntas que los
acompañan abordan estos propósitos de la lectura. Esto quiere decir que los textos
clasificados como literarios poseen preguntas que abordan el tema, la trama, los personajes
y el escenario, y aquellos clasificados como informativos están acompañados por preguntas
sobre la información contenida en los textos. Aunque los textos diferencian entre los distintos
propósitos de lectura, los procesos de comprensión que emplean los lectores se asemejan
más que se diferencian para ambos propósitos; por tanto, los procesos de comprensión se
evalúan en todos los textos, incluidas las tareas de ePIRLS similares al entorno de internet.
Al seleccionar los textos para las evaluaciones PIRLS, la finalidad es presentar una amplia
gama de tipos de textos dentro de cada propósito de lectura. El objetivo es crear una
experiencia lectora para los estudiantes que participan en cada ciclo que sea lo más similar
posible a las experiencias de lectura auténticas que puedan tener dentro y fuera del colegio.
forma cronológica y, en otras, hacen un uso más complejo del tiempo, con flashbacks o
saltos temporales.
La forma principal de los textos literarios usados en PIRLS es la ficción narrativa. Dadas las
diferencias en los currículos y las culturas de los países participantes, es difícil que PIRLS
incluya ciertas formas de textos literarios. Por ejemplo, la poesía es difícil de traducir, por lo
que se evita.
Las páginas web suelen ser multimodales en su forma de presentar información y contienen
características interactivas y experienciales que no es posible reproducir en formato impreso.
Los textos informativos usados en las evaluaciones PIRLS reflejan las experiencias auténticas
de los estudiantes al leer textos informativos dentro y fuera del colegio.
Al pensar en las preguntas de evaluación, existe, por supuesto, una interacción sustancial
entre la longitud y la complejidad del texto y la sofisticación de los procesos de comprensión
necesarios para la tarea de lectura. En principio, podría parecer que la localización y
extracción de información enunciada de forma explícita sería menos difícil, por ejemplo, que
hacer interpretaciones a lo largo de todo un texto e integrar esas interpretaciones con ideas
y experiencias externas. No obstante, los textos y las tareas pueden variar en su longitud,
complejidad sintáctica, abstracción de las ideas, estructura organizativa y demanda cognitiva.
Así, la naturaleza de los textos afecta a la complejidad de las preguntas planteadas en los
cuatro tipos de procesos de comprensión.
Resulta interesante que los textos impresos suelan leerse y procesarse inicialmente a nivel
micro, mientras que las estrategias de búsqueda en línea pueden beneficiarse del
Las tareas de lectura que ejemplifican este tipo de procesamiento de textos incluyen las
siguientes:
La lectura en línea exige una cantidad considerable de inferencia, empezando por identificar
qué páginas web es más probable que contengan la información de interés. Los lectores
también pueden inferir si es necesario o útil seguir un vínculo a otra página.
Las tareas de lectura que ejemplifican este tipo de procesamiento de textos incluyen las
siguientes:
¾ Identificar qué fragmento del texto o página web podría ayudar en un propósito
concreto
A medida que los lectores interpretan e integran, intentan construir un entendimiento más
concreto o más completo del texto integrando su conocimiento y experiencia personal con
un significado que radica en el texto. Por ejemplo, los lectores podrían recurrir a su experiencia
para inferir el motivo subyacente de un personaje o para construir una imagen mental de la
información transmitida. A menudo necesitan recurrir a su entendimiento del mundo, así
como a sus conocimientos y experiencias previas, más que a la extracción de conclusiones
directas.
Las tareas de lectura que ejemplifican este tipo de procesamiento de textos incluyen las
siguientes:
Los lectores pueden reflexionar sobre las elecciones de lenguaje del autor y sus recursos
para transmitir significado y juzgar su idoneidad. Basándose en su entendimiento de las
convenciones lingüísticas, los lectores pueden encontrar debilidades en la forma de escribir
el texto o reconocer el uso eficaz de la destreza del autor. Además, los lectores pueden
evaluar el modo empleado para impartir información, tanto características visuales como
textuales, y explicar sus funciones (p. ej., cajas de texto, imágenes o tablas). Al evaluar la
organización de un texto, los lectores recurren a su conocimiento del género y la estructura
del mismo. La magnitud de la experiencia lectora pasada y la familiaridad con el lenguaje son
esenciales para cada paso de este proceso.
Las tareas de lectura que ejemplifican este tipo de procesamiento de textos incluyen las
siguientes:
Las aptitudes necesarias para evaluar y analizar textos en línea son muy similares a las
necesarias para los textos impresos. No obstante, dado que cualquiera puede publicar lo
que desee en internet, los lectores también deben hacer juicios sobre la credibilidad de la
fuente de información, así como determinar la perspectiva, el punto de vista y el sesgo del
texto (Britt y Rouet, 2012; Goldman, Lawless y Manning, 2013). Además, las características
visuales y textuales de internet suelen ser mucho más variadas que los elementos similares
del texto impreso.
Las tareas de lectura en línea que ejemplifican este tipo de procesamiento de textos incluyen
las siguientes:
Navegación en ePIRLS
En este entorno simulado, ePIRLS incorpora un conjunto de aptitudes y estrategias de
navegación específicamente necesarias para localizar y usar información en internet.
¾ Usar funciones en línea para localizar información dentro de páginas web (p. ej.,
pestañas de contenido, barras de navegación, iconos gráficos y enlaces).
No obstante, aunque ePIRLS esté diseñado para simular una experiencia auténtica de lectura
en línea, se lleva a cabo dentro de un entorno informatizado adecuado para lectores de 4.º
curso y con una evaluación cronometrada. Además, si bien está ideado para reflejar los tipos
de lectura en línea que se exigen a los estudiantes como parte de los proyectos, trabajos y
tareas de investigación en el ámbito escolar, el entorno en línea de la evaluación ePIRLS es
inevitablemente muy limitado en comparación con todo el mundo de internet. Aunque hay
que reconocer que ser capaz de localizar información en internet subyace a todos los
procesos de lectura, el énfasis en ePIRLS se centra en evaluar la comprensión lectora más
que en las aptitudes de navegación.
La evaluación PIRLS está diseñada para proporcionar una imagen completa del rendimiento
en competencia lectora de los estudiantes participantes de cada país. Esto incluye el
rendimiento según el propósito de lectura y los procesos de comprensión, así como el
rendimiento en lectura en general.
La evaluación PIRLS 2021, tanto en formato digital como en papel, consiste en 18 textos
acompañados de preguntas (conocidas como ítems), donde en la mitad de ellos se evalúa la
lectura como experiencia literaria (textos literarios) y en la otra mitad la lectura para la
adquisición y uso de información (textos informativos). Los textos varían en longitud según su
dificultad teniendo entre 600 y 1000 palabras para textos digitalPIRLS y unas 1500-1800
palabras para las tareas ePIRLS. Los ítems que acompañan a estos textos irán desde los 13-17
ítems en digitalPIRLS hasta los 18-20 ítems en las tareas ePIRLS.
Tabla 1.6. Tipo de lectura y nivel de dificultad de los 18 textos de PIRLS 2021
*El número entre paréntesis indica el año de la evaluación PIRLS en el que el texto se usó por primera vez
Fuente: elaboración propia basada en los Marcos de la evaluación PIRLS 2021 (Mullis y Martin, 2019), https://pirls2021.
org/frameworks/index.html
Los países, como el nuestro, que realizaron la aplicación de digitalPIRLS, también aplicaron
el complemento ePIRLS, que consistió en cinco tareas que evaluaban la lectura de información
en línea. Cada tarea está estructurada como un proyecto o informe de clase, con un docente
avatar que introduce las preguntas y que guía a los estudiantes a través de la tarea.
A fin de mantener la carga de la evaluación sobre los estudiantes en lo mínimo posible, cada
uno recibe solamente dos textos, uno literario y otro informativo, de acuerdo con un método
sistemático de montaje y rotación de cuadernillos. Por tanto, en la evaluación PIRLS, a cada
estudiante se le asigna de manera aleatoria un cuadernillo, que consiste en dos textos y sus
preguntas. En PIRLS 2021, los 18 textos estaban organizados en 18 cuadernillos de dos textos
cada uno.
En los países con digitalPIRLS, algunos estudiantes también tenían que realizar el
complemento ePIRLS. Los estudiantes recibían una de estas tres combinaciones: dos textos
de digitalPIRLS, dos tareas de ePIRLS o bien recibían una combinación híbrida con una tarea
de ePIRLS y un texto de digitalPIRLS informativo.
De acuerdo con el nuevo diseño adaptativo, los 18 cuadernillos estaban divididos en dos
niveles de dificultad de la siguiente manera:
La Tabla 1.7 muestra la asignación de los textos de la Tabla 1.6 para los 18 cuadernillos, siendo
los del 1 al 9 los más difíciles y del 10 al 18, los más fáciles.
Fuente: elaboración propia basada en los Marcos de la evaluación PIRLS 2021 (Mullis y Martin, 2019), https://pirls2021.
org/frameworks/index.html
Con este diseño, todos los países participantes administraron los 18 textos, pero en una
proporción variable de cuadernillos de más o menos dificultad, dependiendo del promedio
de la habilidad lectora de sus estudiantes. Esta estimación se hizo basándose en los
resultados previos de las evaluaciones PIRLS, o en las pruebas piloto que realizaron los
países que participaban por primera vez en el ciclo de 2021. Así, los países con un nivel de
rendimiento alto recibieron los cuadernillos de mayor dificultad en una proporción mayor,
mientras que aquellos países con un nivel de desempeño más bajo recibieron
proporcionalmente más cuadernillos de los de menor dificultad.
El Cuadro 1.1 ilustra las diferentes proporciones en la asignación de los cuadernillos para los
países con un rendimiento alto, medio y bajo. Así, en los países con un nivel de desempeño
alto, por encima de 550 puntos en la escala de rendimiento de PIRLS, el 70 % de los
cuadernillos distribuidos fueron difíciles y el 30 % fáciles. A los países, como el nuestro, con
un rendimiento entre los 450 y los 550 puntos se les asignó una cantidad proporcional igual
de cuadernillos fáciles y difíciles, mientras que los países con un promedio bajo de rendimiento
recibieron proporcionalmente menos cuadernillos difíciles (30 %) y más cuadernillos fáciles
(70 %).
Uno de los propósitos fundamentales de PIRLS 2021 es el de analizar los aspectos del hogar,
la comunidad, el centro escolar y el alumnado que están relacionados con la competencia
lectora de los niños/as de 4.º curso. Para cumplir este propósito, se recopilan datos a partir
de cuestionarios que tienen que completar los estudiantes, sus familias, sus profesores y la
dirección del colegio. Además, los Coordinadores Nacionales del Estudio (NRC, National
Research Coordinators) proporcionan información sobre los contextos nacionales y
regionales a través del cuestionario sobre el currículo y con la participación de su país en la
Enciclopedia PIRLS 2021 (Reynolds et al., 2022).
PIRLS se centra en temas de política educativa relevantes que, en general, pueden estar
relacionados positivamente con el rendimiento del alumnado.
Más concretamente, la Enciclopedia PIRLS 2021 (Reynolds, et al., 2022) dibuja un perfil del
sistema educativo de cada país centrándose en la enseñanza de la lectura en los niños de
educación primaria. Cada capítulo proporciona una perspectiva general sobre el currículo de
lectura y lengua, así como información sobre la enseñanza de la lectura en los cursos de
primaria. En cada uno de ellos se incluye también información acerca de las lenguas de
enseñanza a nivel nacional, del profesorado y de su desarrollo profesional, de cómo se
organiza el sistema educativo y de las políticas de evaluación. Además, en cada capítulo se
proporciona información acerca de las repercusiones y el uso de PIRLS en cada país y, en
esta edición, incluye también información sobre el impacto de la pandemia de la COVID-19
en los sistemas educativos, como se recoge en un apartado específico desarrollado
posteriormente en este informe.
centros que no tenían el espacio tuvieron dos días de aplicación o dos administradores de
prueba.
Durante la aplicación en nuestro país, había establecido un fuerte protocolo COVID, lo que
supuso más tiempo para preparar las sesiones, pero no se tradujo en ninguna complicación.
En el momento de la recopilación de datos, había una gran variación entre los países en
cuanto a cómo se había visto afectado el funcionamiento habitual de los centros por la
pandemia en ese curso académico; algunos países habían experimentado el cierre de
escuelas, mientras que otros habían modificado su oferta de enseñanza presencial.
A continuación, se muestra la pregunta del Cuestionario del centro que tuvieron que
responder las direcciones de los centros participantes (Cuadro 1.2).
3
Para más información, ver el capítulo de España en la Enciclopedia PIRLS 2021, https://pirls2021.org/spain/
4
Para consultar las tablas del Cuestionario sobre el currículo, ver: https://pirls2021.org/exhibit-1
Figura 1.1. Porcentaje de alumnado que vio alterado el funcionamiento habitual de su escuela
por semanas lectivas
Según el análisis de la OCDE “COVID-19: The second year of the pandemic” publicado en el
informe Education at a Glance 2022, la pandemia de la COVID-19 interrumpió la escolarización
tradicional en 2020 debido a la necesidad de los gobiernos de reducir el contacto entre
personas por la falta de vacunas y tratamientos. En la mitad de los países con datos disponibles
del curso 2019-2020 se observa que los centros escolares estuvieron completamente
cerrados durante al menos 45 días lectivos en los niveles de educación primaria y primera
Figura 1.2. Días en los que se mantuvo cerrada la escuela por curso escolar
Fuente: OECD (2022), Education at a Glance 2022: OECD Indicators, OECD Publishing, Paris, https://www.oecd-
ilibrary.org/education/education-at-a-glance-2022_3197152b-en
Las diferencias entre países son considerables cuando se tiene en cuenta el número de días
de cierre entre ambos cursos escolares. Suecia (0 días) e Islandia (2 días) son los países
donde el cierre de los centros apenas tuvo impacto, seguido de un grupo de países que
cerraron sus centros durante menos de 50 días, entre los que se encuentra España (45 días)
o Finlandia (38 días), entre otros. En algunos casos, el cierre de los centros educativos superó
los 150 días, como en Polonia y Letonia. España se sitúa entre el grupo de países con un
menor número de días lectivos (45 días) en los que los centros permanecieron cerrados,
dado que en el curso 2020-2021 no se produjeron cierres en los centros escolares (Figura
1.2.).
Tanto en el Promedio OCDE-28 (90 %) como en el Total UE (91 %), la mayoría de las familias
informaron de que sus hijos/as permanecieron en casa durante algún tiempo debido a la
pandemia de la COVID-19. Este porcentaje para el caso de España fue del 94 %. Al resto de
familias que informó que sus hijos/as no permanecieron en casa por causa de la pandemia
no se les pidió que respondieran a la siguiente pregunta sobre sus impresiones sobre el
progreso del aprendizaje de sus hijos (Figura 1.3.).
Dos tercios de las familias del Promedio OCDE-28 y del Total UE declararon que el progreso
en el aprendizaje de sus hijos/as se vio perjudicado por la pandemia “mucho” (20 %, 2 %) o
“algo” (46 %, 49 %). En el caso de España, estos porcentajes ascendieron al 24 % y al 56 %
(Figura 1.3.).
Figura 1.3. ¿Ha permanecido su hijo/a en casa durante algún tiempo debido a la pandemia de la
COVID-19? / ¿Cómo de afectado se vio el progreso de aprendizaje del alumnado según sus
familias?
1.6 Referencias
Alexander, P.A. y The Disciplined Reading and Learning Research Laboratory. (2012). Reading
into the future: Competence for the 21st century. Educational Psychologist, 47(4),
259–280.
Alexander, P.A., Kulikowich, J.M. y Jetton, T.L. (1994). The role of subject-matter knowledge
and interest in the processing of linear and nonlinear texts. Review of Educational
Research, 64(2), 201–252
Alvermann, D. y Moje, E. (2013). «Adolescent literacy instruction and the discourse of “every
teacher a teacher of reading”». En D. Alvermann, N. Unrau y R. Ruddell (Eds.),
Theoretical models and processes of reading (pp. 1072-1103). Newark, DE:
International Reading Association.
Britt, M., Goldman, S. y Rouet, J. (Eds.). (2012). Reading: From words to multiple texts. Nueva
York: Routledge.
Britt, M.A. y Rouet, J.-F. (2012). Learning with multiple documents: Component skills and their
acquisition. En J.R. Kirby y M.J. Lawson (Eds.), Enhancing the quality of learning:
Dispositions, instruction, and learning processes (pp. 276–314). Nueva York, NY:
Cambridge University Press.
Elley, W.B. (1992). How in the world do students read? IEA study of reading literacy. La Haya,
Países Bajos: Asociación Internacional para la Evaluación del Rendimiento Educativo
(IEA).
Goldman, S.R. (2014). Reading and the web: Broadening the need for complex comprehension.
En R.J. Spiro, M. DeSchryver, P. Morsink, M.S. Hagerman y P. Thompson (Eds.), Reading
at a crossroads? Disjunctures and continuities in current conceptions and practices.
Nueva York, NY: Routledge.
Guthrie, J. (1996). «Educational contexts for engagement in literacy». The Reading Teacher,
49(6), 432-445.
Kintsch, W. y Kintsch, E. (2005). Comprehension. En S.G. Paris y S.A. Stahl (Eds.), Children’s
reading comprehension and assessment (pp. 71–92). Mahwah, NJ: Lawrence Erlbaum
Associates.
Langer, J. (2011). Envisioning literature, second edition. Newark, DE: International Reading
Association.
Leu, D., Kinzer, C., Coiro, J. y Cammack, D. (2004). «Toward a theory of new literacies emerging
from the internet and other information and communication technologies». En R.B.
Ruddell y N.J. Unrau (Eds.), Theoretical models and processes of reading, fifth edition
(pp. 1570-1613). Newark, DE: International Reading Association.
Leu, D., Kinzer, C., Coiro, J, Castek, J. y Henry, L. (2013). «New literacies: A dual level theory of
the changing nature of literacy, instruction and assessment». En D, Alvermann, N.
Unrau y R. Ruddell (Eds.), Theoretical models and processes of reading, sixth edition
(pp. 1150-1181). Newark, DE: International Reading Association.
Leu, D.J., O’Byrne, W.I., Zawilinski, L., McVerry, J.G. y Everett-Cacopardo, H. (2009). Comments
on Greenhow, Robelia, and Hughes: Expanding the new literacies conversation.
Educational Researcher, 38(4), 264–269.
Lorch, R., Lemarie, J. y Grant, R. (2011). «Signaling hierarchical and sequential organization in
expository prose». Scientific Studies of Reading, 15(3), 267-284.
Murphy, P., Wilkinson, I., Soter, A., Hennessey, M. y Alexander, J. (2009) «Examining the effects
of classroom discussion on students’ comprehension of text: A meta-analysis».
Journal of Educational Psychology, 101(3), 740-764.
OCDE. (2022). Education at a Glance 2022. OECD Indicators. Paris: OECD Publishing.
Purcell, K., Rainie, L., Heaps, A., Buchanan, J., Friedrich, L., Jacklin, A., … Zickuhr, K. (2012).
How teens do research in the digital world. Washington, DC.
Rapp, D. y van den Broek, P. (2005). «Dynamic text comprehension: An integrative view of
Reading». Current Directions in Psychological Science, 14(5), 276-279.
Reynolds, K. A., Wry, E., Mullis, I. V. S. y von Davier, M. (2022). PIRLS 2021 Encyclopedia:
Education Policy and Curriculum in Reading. Obtenido de https://pirls2021.org/
frameworks/index.html
Singer, L.M. y Alexander, P.A. (2017). Reading on paper and digitally: What the past decades
of empirical research reveal. Review of Educational Research, 87(6), 1007–1041.
Taboada, A., Tonks, S., Wigfield, A. y Guthrie, J. (2009). «Effects of motivational and cognitive
variables on reading comprehension». Reading and Writing: An Interdisciplinary
Journal, 22(1), 85-106.
Tondeur, J., van Braak, J. y Valcke, M. (2007). Towards a typology of computer use in primary
education. Journal of Computer Assisted Learning, 23(3), 197–206.
West, R.F. y Stanovich, K.E. (2000). Automatic contextual facilitation in readers of three ages.
En K.E. Stanovich (Ed.), Progress in understanding reading: Scientific foundations
and new frontiers (pp. 13–20). Nueva York, NY: Guilford.
Wineburg, S., McGrew, S., Breakstone, J. y Ortega, T. (2016). Evaluating information: The
cornerstone of civic online reasoning. Stanford, CA: Universidad de Stanford. Extraído
de http://purl.stanford.edu/fv751yt5934
521 Adquisición
522 Obtención de
522
y uso de la 529 información 527
y realización de
información
532 inferencias directas 532
528
520 Integración y
520
Experiencia
literaria 530 evaluación 528
533
del contenido
535 534
Niveles de rendimiento
Porcentaje de alumnado por nivel de rendimiento
5 20 40 30 6
5 17 37 32 8
6 16 34 33 11
520 528
521
510
513 513
16 500
2006 2011 2016 2021
países empeoran su
rendimiento medio España Promedio OCDE
Los resultados que aquí se presentan deben ser interpretados en conjunto, ya que cualquier
valoración aislada de los mismos empobrece y desvirtúa su comprensión.
El estudio PIRLS utiliza la teoría de respuesta al ítem (TRI) para asignar las puntuaciones a los
estudiantes. Este modelo expresa el nivel de rendimiento en una escala común a la empleada
para estimar la dificultad de las preguntas de la prueba. Para cada estudiante se obtiene la
distribución a posteriori de la destreza medida de la que se extraen cinco valores aleatorios,
denominados valores plausibles. Por ello la puntuación asignada a cada estudiante no se
expresa mediante un único valor (estimador puntual, como por ejemplo la media). Este
procedimiento reduce el sesgo de la varianza de los estimadores obtenidos (Wu, 2005). Las
bases de datos de PIRLS incluyen una ponderación para que los estimadores obtenidos
puedan ser aplicados a la población completa de estudiantes de cada país.
Los promedios globales de los países participantes se expresan en una escala continua con
un punto de referencia central de 500 puntos, que fue fijado en 1995. Este se utiliza como
44 |
2 Resultados del alumnado en España y en otros países participantes
punto de referencia que permanece constante en los diferentes ciclos de cada estudio. El
valor de 500 puntos es, por tanto, una referencia con la que es posible hacer comparaciones
entre los países.
Para estimar la varianza de los estimadores, y por lo tanto los errores típicos, PIRLS emplea
un procedimiento de remuestreo de tipo jacknife, consistente en obtener múltiples muestras
a partir de la original, y calcular el parámetro de interés para cada una de las muestras
replicadas, además de para la muestra completa. La variabilidad entre las replicaciones
resultantes es el estimador del error típico del estadístico objeto de estudio.
Otro valor que se calcula para la comparación internacional es el Total Unión Europea (UE).
El Total UE se calcula teniendo en cuenta la suma de los pesos de los alumnos como
estimación del tamaño de la población objetivo, es decir, los alumnos de los 22 países de la
UE que participaron en PIRLS 2016 y también los alumnos de Bélgica flamenca (Fl.) y Bélgica
francófona (Fr.). El Total UE, a diferencia del Promedio OCDE, tiene en cuenta el conjunto de
alumnos de la Unión Europea que participa en PIRLS en cada país, no el valor promedio de
la puntuación de los países.
Los resultados globales de España y de las nueve comunidades y ciudades autónomas que
han ampliado muestra en la edición actual del estudio se analizan en este informe
comparándolos con los resultados de los países seleccionados, el promedio del conjunto de
países de la OCDE participantes y el total de la Unión Europea participante en esta edición.
Nivel
avanzado:
Nivel alto: de 625 puntos o
550 a 625 más
Nivel puntos
intermedio:
Nivel bajo: de de 475 a 550
400 a 475 puntos
Nivel muy puntos
bajo: menos
de 400
puntos
Cada punto de referencia se caracteriza mediante las destrezas que el alumnado que lo
alcance probablemente será capaz de demostrar. La estructura es acumulativa, es decir, el
alumnado que se sitúe en un determinado nivel será capaz de demostrar las destrezas
asociadas a ese nivel además de las asociadas a todos los niveles inferiores. Las destrezas
asociadas a cada nivel se resumen en el Cuadro 2.1.
Nivel Avanzado
Al leer textos literarios predominantemente difíciles, el estudiante es
capaz de:
- Interpretar e integrar los eventos de la historia y las acciones de
los personajes para describir las razones, las motivaciones, los
sentimientos y el desarrollo del personaje.
- Evaluar el efecto deseado del lenguaje, el estilo y las opciones
de composición del autor.
Al leer textos informativos o tareas en línea predominantemente
difíciles, el estudiante es capaz de:
- Hacer inferencias sobre información compleja en distintas
páginas web y partes del texto para reconocer la información
relevante en una lista y usar las evidencias del texto para
respaldar ideas.
- Interpretar e integrar varios conjuntos de información diferentes
en el texto y en las páginas web para presentar una descripción
general de las ideas del texto y proporcionar comparaciones y
explicaciones.
- Evaluar elementos textuales, visuales e interactivos para
explicar su propósito e identificar el punto de vista del escritor y
proporcionar evidencias que lo respalden.
625 puntos
Nivel Alto
Al leer textos literarios de dificultad media y alta, el estudiante es capaz
de:
- Localizar e identificar acciones y detalles significativos
integrados en el texto.
- Hacer inferencias sobre las relaciones entre intenciones,
acciones, eventos y sentimientos.
- Interpretar e integrar eventos de la historia para explicar las
acciones y sentimientos de los personajes.
- Reconocer el significado de algún lenguaje figurativo (p. ej.,
metáforas, imágenes).
550 puntos
Nivel Intermedio
Al leer textos literarios de dificultad media o baja, el estudiante es capaz
de:
- Localizar, reconocer y reproducir acciones, eventos y
sentimientos declarados explícitamente.
- Hacer inferencias directas sobre eventos y acciones de
personajes.
- Interpretar las razones de los sentimientos o acciones de los
personajes e identificar las evidencias que las respalden.
En este apartado, para cada uno de los territorios mencionados en el epígrafe anterior, se
comenta, por un lado, la puntuación media en competencia lectora del alumnado, analizando
la dispersión de esta puntuación media y desagregando los resultados en función de los
propósitos de lectura y de los procesos de comprensión; y por otro lado, la distribución del
alumnado por niveles de competencia.
Ambos gráficos se han ordenado por orden decreciente de puntuaciones medias. Además,
incluyen los datos correspondientes al Promedio OCDE-28 y al Total UE.
En la Figura 2.2.a se puede observar que las puntuaciones medias más altas de entre los
países y regiones adjudicatarias incluidas se obtienen en las islas británicas, correspondiendo
a Irlanda (577), Irlanda del Norte (566) e Inglaterra (558). En el extremo opuesto se encuentran
las dos regiones adjudicatarias belgas, la flamenca (511) y la francófona (494), entre las que
se sitúan Israel (510) y Turquía (496).
De entre las comunidades y ciudades autónomas con ampliación de muestra, tal como se
puede ver en la Figura 2.2.b, las que obtienen una puntuación media estimada
significativamente superior a la del conjunto de España son Asturias (550), Comunidad de
Madrid (539) y Castilla y León (538), mientras que las que quedan significativamente por
debajo son Canarias (510), Cataluña (507), Melilla (499) y Ceuta (498).
La Figura 2.3.a refleja la dispersión de los resultados obtenidos en PIRLS 2021 en los países
y regiones adjudicatarias participantes tenidos en cuenta para el presente informe,
presentando las puntuaciones medias estimadas en los percentiles 5, 25, 50, 75 y 95 en
comprensión lectora. La Figura 2.3.b muestra los mismos datos referidos a las comunidades
y ciudades autónomas.
Por otra parte, las diferencias entre la mediana (percentil 50) y los percentiles 5 y 95 nos dan
una estimación de la dispersión de los resultados entre el alumnado por debajo y por encima
de la mediana, respectivamente. En todos los territorios estudiados se observa que la
dispersión entre las puntuaciones más bajas es mayor que la dispersión entre las puntuaciones
más altas.
Figura 2.3.c. Puntuación media estimada según la dispersión de los resultados en comprensión
lectora (percentil 95-percentil 5) en PIRLS 2021
Las Figuras 2.4.a y 2.4.b muestran la distribución del alumnado en cada nivel de rendimiento
con los países y regiones adjudicatarias y con las comunidades y ciudades autónomas que
ampliaron muestra, respectivamente, en orden de mayor a menor proporción en el nivel
avanzado. Las Figuras 2.5.a y 2.5.b reflejan los mismos datos, con los respectivos territorios
ordenados según la proporción de alumnado en el nivel muy bajo.
Figura 2.4.a. Proporción de estudiantes en cada uno de los niveles de comprensión lectora en
países y regiones adjudicatarias participantes en PIRLS 2021, en orden decreciente de
proporción en el nivel avanzado
Figura 2.4.b. Proporción de estudiantes en cada uno de los niveles de comprensión lectora en
las comunidades y ciudades autónomas que ampliaron muestra en PIRLS 2021, en orden
decreciente de proporción en el nivel avanzado
Figura 2.5.a. Proporción de estudiantes en cada uno de los niveles de comprensión lectora en
países y regiones adjudicatarias participantes en PIRLS 2021, en orden creciente de proporción
en el nivel muy bajo
Figura 2.5.b. Proporción de estudiantes en cada uno de los niveles de comprensión lectora en
las comunidades y ciudades autónomas que ampliaron muestra en PIRLS 2021, en orden
creciente de proporción en el nivel muy bajo
De nuevo es en las islas británicas donde se encuentran los porcentajes más elevados de
alumnado en el nivel avanzado: Irlanda (27 %), Irlanda del Norte (23 %) e Inglaterra (18 %),
mientras que los más bajos se dan en Francia (5 %) y las dos regiones adjudicatarias de
Bélgica (3 %).
Las comunidades autónomas en las que se encuentran los porcentajes más altos de
alumnado en el nivel avanzado son Asturias (11 %) y Comunidad de Madrid (8 %),
correspondiendo los porcentajes más bajos a las ciudades autónomas de Melilla (3 %) y
Ceuta (2 %).
Si se atiende al porcentaje de alumnado en el nivel muy bajo, se puede ver que los países
con una situación más favorable (es decir, con porcentajes más bajos) son Croacia (2 %),
Irlanda (2 %) y Polonia (3 %), mientras que la más desfavorable se encontraría en Bélgica
francófona (11 %), Israel (12 %) y Turquía (14 %).
En cuanto a las comunidades y ciudades autónomas, los porcentajes más bajos se dan en
Asturias (2 %), Castilla y León (2 %) y Comunidad de Madrid (3%), mientras que los más
elevados son los de Cataluña (6 %), Ceuta (8 %) y Melilla (8 %).
Para evaluar la comprensión lectora, PIRLS proporciona datos acerca del rendimiento en
función del propósito de la lectura –informativo o literario-, y de los procesos realizados para
alcanzar dicha comprensión: obtención de información y realización de inferencias directas,
e integración y evaluación del contenido.
Figura 2.6.b. Puntuaciones medias estimadas en comprensión lectora por propósitos de lectura
de las comunidades y ciudades autónomas que ampliaron muestra en PIRLS 2021
Irlanda (574), Irlanda del Norte (562) e Inglaterra (559) son los tres territorios con un rendimiento
medio estimado más alto para el propósito de adquisición y uso de información, mientras
que los más bajos se dan en Chipre (505), Turquía (498) y la Bélgica francófona (490). España
obtiene un rendimiento medio estimado de 522 puntos, por debajo del Promedio OCDE-28
(532) y del Total UE (527). En lo referente a comunidades y ciudades autónomas, Asturias
(550), Comunidad de Madrid (539) y Castilla y León (538) logran las medias más altas,
correspondiendo las más bajas a Cataluña (507), Melilla (498) y Ceuta (496).
Si nos fijamos en el propósito de experiencia literaria, repiten con los rendimientos medios
estimados más elevados Irlanda (584) e Irlanda del Norte (573), acompañados en esta
ocasión por Croacia (567). Cierran la lista Bélgica flamenca (511), Bélgica francófona (499) y
Turquía (495). En cuanto a las comunidades y ciudades autónomas, se da la misma situación:
Asturias (550), Comunidad de Madrid (537) y Castilla y León (536). También se repiten los
últimos puestos: Cataluña (507), Melilla (498) y Ceuta (495). El conjunto de España (520)
vuelve a quedar por debajo del Promedio OCDE-28 (535) y del Total UE (530).
La Figura 2.7 refleja el, por otra parte, previsible alto grado de correlación entre ambas
puntuaciones en los territorios considerados. El modelo de regresión lineal representado
por la recta de regresión explica el 94 % de la varianza en los resultados de experiencia
literaria a partir de los resultados en adquisición y uso de la información. Se observa que la
puntuación de casi todos los territorios en experiencia literaria está dentro del intervalo de
confianza al 95 % de la predicción individual, que es el representado. Únicamente Estados
Unidos rinde en experiencia literaria significativamente por encima de lo que cabría esperar
según sus resultados en adquisición y uso de la información.
Figura 2.7. Regresión lineal entre los resultados de los propósitos de experiencia literaria y
adquisición y uso de la información, con el intervalo de confianza al 95 % de la predicción
individual
Irlanda (571), Irlanda del Norte (558), Lituania (554) e Inglaterra (554) son los países o regiones
adjudicatarias con un rendimiento medio estimado más alto para el proceso de obtención de
información y realización de inferencias directas, correspondiendo los más bajos a Chipre
(509), Israel (508) y la Bélgica francófona (497). La puntuación media estimada de España es
de 522 puntos, y queda por debajo del Promedio OCDE-28 (532) y del Total UE (529). De
entre las comunidades y ciudades autónomas, Asturias (550), Castilla y León (538) y
Comunidad de Madrid (538) obtienen las puntuaciones medias más altas, mientras que las
más bajas son las de Cataluña (509), Melilla (499) y Ceuta (497).
con mejores rendimientos en este proceso vuelven a ser Asturias (550), Comunidad de
Madrid (538) y Castilla y León (537), y las de rendimientos más bajos, Cataluña (505), Melilla
(498) y Ceuta (494).
La Figura 2.9 muestra cómo, al igual que en el caso de los propósitos de lectura, existe una
fuerte correlación entre las puntuaciones medias de los dos procesos de comprensión
lectora. El modelo de regresión lineal representado por la recta de regresión explica el 94 %
de la varianza del rendimiento medio estimado en el proceso de integración y evaluación
del contenido a partir del rendimiento medio estimado en el proceso de obtención de
información y realización de inferencias directas. Solo los puntos de dos países quedan
fuera del intervalo de confianza de predicción individual al 95 %: Australia y Estados Unidos.
Ambos obtienen un rendimiento medio estimado en el proceso de integración y evaluación
del contenido significativamente mejor que el esperado en función de sus resultados en
obtención de información y realización de inferencias directas.
Figura 2.9. Regresión lineal entre los resultados de los procesos de obtención de información
y realización de inferencias directas, e integración y evaluación del contenido, con el intervalo
de confianza al 95 % de la predicción individual
Las evaluaciones educativas a gran escala como PIRLS juegan un papel fundamental como
herramientas decisorias de políticas educativas (Jiménez Moreno, 2016), y ayudan a los
responsables de las políticas educativas a realizar un seguimiento de los cambios en los
resultados de aprendizaje (UNESCO, 2019). Para ello es imprescindible analizar la evolución
de los resultados en las series temporales disponibles.
Pero, además, PIRLS 2021 es la primera evaluación internacional a gran escala cuyos
resultados se publican después de la pandemia de la COVID-19, por lo que el análisis de la
evolución de las puntuaciones puede servir para saber si la disrupción que la pandemia ha
supuesto en el normal desarrollo del aprendizaje en los centros educativos (Tarkar, 2020) ha
tenido impacto en el rendimiento del alumnado.
Figura 2.10. Evolución del promedio global del rendimiento en comprensión lectora en los
cuatro ciclos PIRLS (2006, 2011, 2016 y 2021)
Educación, Cultura y Deporte, 2017). Por el contrario, en 2021 son dieciséis los países que
empeoran significativamente su puntuación, por solo siete en 2016.
Figura 2.11. Variaciones en el rendimiento medio estimado en comprensión lectora en los dos
últimos ciclos de PIRLS (2016 y 2021)
Los tres países que experimentan un aumento significativo de su puntuación media estimada
son Malta (63 puntos), Noruega (22) e Irlanda (11). Es muy llamativo el incremento de la
puntuación de Malta, pero hay que recordar que este país venía de un rendimiento realmente
bajo en 2016 (452 puntos). En el otro extremo, hay tres países que sufren un retroceso de 20
puntos o más: Israel (20), Eslovenia (23) y Letonia (30).
Estas evidencias apuntan a que, de manera global, se he producido una bajada del
rendimiento en comprensión lectora entre el alumnado de 4.º grado. Esta bajada podría ser
consecuencia del impacto que la pandemia de la COVID-19 ha tenido sobre el normal
funcionamiento de los centros escolares y, en consecuencia, sobre el proceso de aprendizaje,
pero son necesarios análisis más profundos para corroborar esta hipótesis y extraer
conclusiones consistentes.
Figura 2.12. Evolución del promedio global del rendimiento en comprensión lectora en los
cuatro ciclos PIRLS (2006, 2011, 2016 y 2021), por procesos de comprensión lectora y
propósitos de lectura
que este se retomó cuando se reabrieron los centros, supuso una ruptura emotiva importante
(García Arias, 2021).
Resulta, por tanto, interesante analizar si este innegable impacto se ha visto trasladado a los
resultados de PIRLS 2021, ya que es la primera evaluación internacional a gran escala que
se ha llevado a cabo tras la pandemia. Como punto de partida para posibles análisis
posteriores, en este informe se propone evaluar si existe relación entre la duración del
periodo de cierre de los centros educativos y la variación de la estimación del rendimiento
medio en cada país. Para ello, se han tomado los datos publicados en el informe Education
at a Glance 2022 (OCDE, 2022) sobre los días de cierre en 2020 y 2021 en cada uno de los
países incluidos en el presente informe para los que esos datos están disponibles, y su
variación en el rendimiento medio entre las ediciones de PIRLS 2016 y 2021.
En la Figura 2.13 se plasma la regresión lineal entre ambas series de datos. La principal
conclusión que se obtiene es que la variación en el rendimiento medio por cada día de
cierre (-0,11) es estadísticamente significativa, y sirve para explicar un 28 % de la varianza
observada. Esto implica, por ejemplo, que de la disminución de 6,5 puntos en el rendimiento
medio experimentado por España entre 2016 y 2021, casi 5 puntos podrían estar explicados
por el cierre de sus centros educativos durante 45 días lectivos; de igual forma, 24 de los 30
puntos que ha bajado Letonia se justificarían por los 221 días de cierre de sus centros
educativos, mientras que Polonia, que ha bajado su rendimiento medio en casi 16 puntos,
obtiene en realidad unos resultados mejores de los esperados, ya que por los 181 días de
cierre se podía prever un descenso de 20 puntos.
Figura 2.13. Regresión lineal entre el valor medio estimado del rendimiento en comprensión
lectora y los días de cierre de los centros educativos en 2020 y 2021 como consecuencia de la
pandemia de la COVID-2019 (α=0,05)
Tanto Andalucía como Canarias presentan datos de 2011 a 2021; ambas Comunidades
Autónomas presentan un rendimiento al alza en comprensión lectora en esta década, si bien
no se puede considerar que en Canarias (5 puntos) dicho crecimiento sea estadísticamente
significativo. Andalucía sí presenta una mejora estadísticamente significativa entre los ciclos
2011 y 2016 (10 puntos) y un rendimiento estable al analizar el resultado en 2021 (descenso
de 2 puntos no estadísticamente significativos).
Figura 2.14. Evolución del promedio global del rendimiento en comprensión lectora en los ciclos
PIRLS (2011, 2016 y 2021), por CCAA
Respecto a las Comunidades Autónomas que solo ampliaron muestra en 2016 y en 2021
(Cataluña, Castilla y León, Comunidad de Madrid y Principado de Asturias), Cataluña (15
puntos menos) y Comunidad de Madrid (10 puntos menos) presentan un rendimiento
estadísticamente significativo menor. En Castilla y León, con 8 puntos menos de rendimiento
en 2021 respecto de 2016, no hay bajada estadísticamente significativa. Igualmente ocurre
con los 2 puntos de mejora que presenta el Principado de Asturias entre los ciclos 2016 y
2021 (Figura 2.14).
2.4 Referencias
OCDE. (2022). Education at a Glance 2022. OECD Indicators. Paris: OECD Publishing.
Sicilia, G., & Simancas, R. (2018). Equidad educativa en España: comparación regional a partir
de PISA 2015. Madrid: Fundación Ramón Areces. Obtenido de https://www.
fundacionareces.es/recursos/doc/portal/2018/03/20/equidad-educativa-en-espana.
pdf
UNESCO. (2019). La promesa de las evaluaciones educativas a gran escala. Reconocer los
límites para generar oportunidades. París: Organización de las Naciones Unidas
para la Educación, la Ciencia y la Cultura (UNESCO). Obtenido de https://unesdoc.
u n e s c o . o r g / i n / d o c u m e n t V i e w e r .
xhtml?v=2.1.196&id=p::usmarcdef_0000369947&file=/in/rest/annotationSVC/
DownloadWatermarkedAttachment/attach_import_fc2ff287-0b30-4f10-a173-
31bf4732e590%3F_%3D369947spa.pdf&locale=es&multi=true&ark=/ark:/48223/p
Wu, M. (2005). The role of plausible values in large-scale surveys. Studies in Educational
Evaluation, 31, 114-128. Obtenido de https://www.acer.org/files/plausiblevaluesinsee.
pdf
15 Diferencia en las
puntuaciones medias
En España hay 51 puntos de diferencia 31 de estos dos grupos:
en el rendimiento en lectura entre el 16 55 puntos a favor
alumnado que tiene al menos uno de los de los que tienen más
de 200 libros
padres con titulación terciaria y el que en el hogar.
38
sus padres como máximo han completado
la educación obligatoria.
Entre 0 y 25 Entre 26 y 100 Entre 100 y 200 Más de 200
2 Chicos 25 40 35
Chicas 19 37 44
11 Chicos 25 37 38
13
Chicas 18 34 47
Chicos 25 35 41
0 20 40 60 80 100
500
20 YEARS
490
Les gusta mucho leer Les gusta algo leer No les gusta leer
Ya hace tiempo que los resultados de numerosas investigaciones muestran que las chicas
obtienen mejor rendimiento medio que los chicos en compresión lectora, mientras que en
matemáticas suele observarse lo contrario (OECD, 2011, 2015, 2018). Las causas de esta
diferencia, conocida como brecha de género, son variadas como se puede ver en Carmona
et al. (2011), Niederle and Vesterlund (2010), Kirk et al. (2012) y Lepper, Stang-Rabrig and
McElvany (2022), entre otros numerosos estudios.
78 |
3 Contexto Social, Económico y Cultural. Resultados.
El rendimiento obtenido por los estudiantes está relacionado con el estatus social, económico
y cultural de sus familias (ISEC), como se ha puesto de manifiesto en numerosos estudios
internacionales de evaluación y en trabajos de investigación (Lagravinese, Liberati and
Resce, 2020). El análisis de la relación entre el rendimiento y el ISEC puede proporcionar
información relevante de la medida en la que el sistema educativo favorece la equidad.
Con las respuestas a las preguntas planteadas, se construye el índice del estatus social
económico y cultural del hogar, que denominaremos ISEC en adelante, con media 10 y
desviación típica 2. En el siguiente apartado se presentan los resultados correspondientes a
cada una de las componentes del ISEC por separado.
Debe observarse que, de los países inicialmente seleccionados para este informe, se han
descartado en este epígrafe aquellos con un alto porcentaje de registros “perdidos” en la
recogida de la información a través del cuestionario de familias. En concreto, además de
Estados Unidos, Australia e Inglaterra, que no disponen de cuestionario de familia, se han
descartado para el análisis de este apartado, por su elevado porcentaje de cuestionarios de
familia faltantes (por encima del 25 %) los siguientes países: Hungría, Malta, Israel, Irlanda del
Norte, Suecia, Alemania, Países Bajos, Nueva Zelanda y Lituania.
¾ Nivel medio: estudiantes cuyo padre con nivel educativo más alto ha completado la
educación secundaria posobligatoria (d)
¾ Nivel alto: estudiantes cuyo padre con nivel educativo más alto ha completado FP de
grado superior, diplomatura o grado universitario, licenciatura, máster o doctorado (e,
f, g, h)
Cuadro 3.1. Pregunta del cuestionario de familias sobre el nivel educativo más alto de los
padres de los estudiantes
La Figura 3.1a muestra que, en 10 de los 20 países seleccionados, más de la mitad de los
estudiantes provienen de familias en las que al menos uno de los padres ha alcanzado el
nivel educativo alto, destacando Dinamarca con más de 70 % de los estudiantes en esta
situación. Este porcentaje es inferior o igual al 40 % en 8 de los países, se queda en apenas
el 30 % en Austria y no llega al 20 % en Turquía. En España, un 48 % de alumnos proceden
de familias en las que al menos uno de los padres tiene nivel de estudios superiores.
cifra queda en el 17 %, muy lejos de los países con la menor proporción de estudiantes en
esta categoría (Figura 3.1a).
Figura 3.1a. Porcentaje de estudiantes en función del nivel educativo más alto de padres.
Países seleccionados
En cuanto a las comunidades y ciudades autónomas que amplían muestra, en la Figura 3.1b
se observa que la Comunidad de Madrid (61 %) tiene el mayor porcentaje de padres con un
nivel educativo alto y Castilla y León, Navarra y Asturias superan también la cifra del 50 % en
este nivel, mientras que en Andalucía, Melilla, Canarias y Ceuta no llega al promedio de la
cifra de España (48 %).
En Ceuta y Melilla se observan las proporciones más altas de estudiantes cuyos padres
tienen, como máximo, el nivel bajo, y en Andalucía (23 %) y Canarias (21 %) los padres de
aproximadamente una de cada cinco familias se encuentran en este nivel educativo. La
proporción más baja de alumnos en esta categoría se da en la Comunidad de Madrid (10 %).
Figura 3.1b. Porcentaje de estudiantes en función del nivel educativo más alto de padres.
Comunidades y ciudades autónomas participantes
La Figura 3.2a muestra los resultados en comprensión lectora de los estudiantes en cada
una de las tres categorías de la variable máximo nivel de estudios de los padres, así como
la diferencia de puntuaciones medias entre los alumnos cuyos padres completaron como
máximo la Secundaria Obligatoria (nivel educativo bajo) y las de los alumnos que tengan, al
menos, uno de los padres con un nivel de estudios de FP de grado superior, diplomatura,
licenciatura, grado, máster o doctorado (nivel educativo alto).
Las diferencias más altas entre los alumnos cuyos padres están en el nivel educativo bajo y
los que al menos un padre tiene un nivel educativo alto se dan en Bulgaria, Croacia y
Eslovaquia, por encima de 110 puntos, lo que parece indicar grandes diferencias sociales
que el sistema educativo no es capaz de corregir. Hasta 8 de los países seleccionados
presentan diferencias superiores a los 90 puntos. Por el contrario, las menores diferencias
se observan en España (51 puntos), Noruega (56 puntos), Bélgica (Fl.) (57 puntos) y Portugal
(59 puntos), países donde los sistemas educativos muestran mejores signos de equidad
entre los seleccionados.
Entre los estudiantes cuyos padres tienen el nivel de estudios más altos, en España el
rendimiento medio obtenido en compresión lectora alcanza los 542 puntos, solo por encima
de Bélgica (Fr.), Bélgica (Fl.), Chipre y Eslovenia. Los países con las puntuaciones medias más
altas en este nivel son Irlanda, Croacia y Bulgaria, con puntuaciones medias superiores a los
580 puntos.
En el grupo de estudiantes cuyos padres tienen el nivel de estudios más bajo, los de España
han obtenido 491 puntos de media en comprensión lectora, 20 puntos menos en este nivel
que los estudiantes de Irlanda (513 puntos), que son los que han obtenido el mejor resultado
en esta categoría. Este resultado, junto con el anterior referente a las diferencias en el nivel
de estudios más alto, indica que la variabilidad de las puntuaciones de los estudiantes en
España es notablemente más baja que en el resto de países incluidos en este análisis.
Figura 3.2a. Rendimiento medio en comprensión lectora según el máximo nivel educativo de
padres de los estudiantes. Diferencia entre el nivel más alto y el más bajo. Países
seleccionados
Además, la diferencia entre el rendimiento medio de los estudiantes con al menos un padre
con nivel educativo medio y de los estudiantes con al menos un padre en el nivel alto es más
baja en España (24 puntos) que en el resto de países seleccionados (Tabla 3.2).
Las diferencias en el rendimiento en compresión lectora, entre los niveles educativos alto y
bajo de los padres, también son significativas en las comunidades y ciudades autónomas
españolas. Las diferencias más elevadas se observan en la Comunidad de Madrid, Castilla y
León y Navarra, si bien no sobrepasan en ningún caso los 65 puntos y, por tanto, muestran
mejores signos de equidad que buena parte de los países seleccionados, aunque peor que
en España en su conjunto. Por otro lado, puede verse que las diferencias más bajas entre los
niveles alto y bajo se observan en Ceuta, Canarias y Melilla.
Entre las comunidades autónomas, en el nivel educativo más alto, Asturias, Castilla y León y
Madrid obtienen las puntuaciones medias más altas, por encima de los 550 puntos (Figura
3.2b), significativamente por encima de la puntuación media de España. Las puntuaciones
más bajas en este nivel educativo se dan en Ceuta y Melilla, ambas ciudades con 519 puntos.
Figura 3.2b. Rendimiento medio en comprensión lectora según el máximo nivel educativo de
los padres de los estudiantes. Diferencia entre el nivel más alto y el más bajo. Comunidades
autónomas participantes
Asturias (517 puntos) es, también, la comunidad autónoma que presenta la puntuación media
más alta entre los estudiantes cuyos padres están en el nivel educativo más bajo, rendimiento
significativamente más alto que en España. En este nivel, los estudiantes de Melilla (478),
Ceuta (488) y Cataluña (481) obtienen la puntuación media más baja en comprensión lectora.
La pregunta 17 del cuestionario de familias (Cuadro 3.2) recoge la situación laboral actual de
los padres de los estudiantes. Para analizar la influencia del nivel de ocupación de los padres
en los resultados en comprensión lectora de los estudiantes, se han agrupado las opciones
de respuesta de la pregunta 17 en tres categorías o niveles:
¾ Nivel 2: Estudiantes cuyo progenitor con el nivel ocupacional más alto es trabajador
semicualificado no manual, que agrupa las opciones b, c y d.
Cuadro 3.2. Pregunta del cuestionario de familias sobre el trabajo actual de los pades de los
estudiantes
Las Figuras 3.3a y 3.3 b muestran la distribución de los estudiantes en las tres categorías o
niveles considerados.
Turquía (66 %) es el país con el porcentaje más alto de alumnado en el nivel ocupacional 1,
siendo los dos padres trabajadores no cualificados o semicualificados manuales, muy lejos
de Bulgaria (38 %), que ocupa el segundo lugar. Los demás países quedan ya por debajo del
35 % en este nivel ocupacional. En contraste nos encontramos con Dinamarca y Noruega,
que no llegan al 15 % en este nivel. El porcentaje de estudiantes de España en esta categoría
asciende al 27 %, en línea con Francia (27 %) y Bélgica (Fl.) (27 %).
Figura 3.3a. Porcentaje de estudiantes en función del nivel de ocupación más alto de padres.
Países seleccionados
Madrid (18 %) es la comunidad autónoma con menor porcentaje de estudiantes con ambos
padres en el nivel ocupacional 1: menos de 1 de cada 5 estudiantes se encuentran en este
nivel. En las demás comunidades y ciudades autónomas esta proporción es igual o superior
al 25 %, y es igual o superior al 30 % en Melilla, Navarra, Andalucía y Ceuta (Figura 3.3b).
Más de la mitad de los estudiantes de Madrid (62 %) y Cataluña (54 %) tienen al menos un
progenitor cualificado (nivel ocupacional 3), por encima del promedio de España. Ceuta y
Melilla son las que tienen los porcentajes más bajos de estudiantes en esta categoría.
Figura 3.3b. Porcentaje de estudiantes en función del nivel de ocupación más alto de los
padres. Comunidades autónomas participantes
En todos los países, el alumnado con al menos un padre empleado como trabajador
cualificado (nivel 3) obtiene un rendimiento medio en comprensión lectora significativamente
más alto que el del alumnado con ambos padres sin empleo o en puestos de trabajador no
cualificado o semicualificado manual (nivel 1) (Figura 3.4a).
Las mayores diferencias de puntuación media observada entre estas dos categorías se dan
en Turquía (74 puntos) y Bulgaria (74 puntos). Dinamarca (33 puntos), Finlandia (34 puntos),
Eslovenia (35 puntos), Bélgica (Fl.) (35 puntos) y Letonia (36 puntos) presentan las menores
diferencias entre las puntuaciones medias de ambas categorías. La diferencia en España (40
puntos) está entre las más bajas de los países seleccionados.
Figura 3.4a. Rendimiento medio en comprensión lectora según nivel de ocupación más alto de
los padres de los estudiantes. Diferencia entre el nivel más alto y el más bajo. Países
seleccionados
Con respecto a las comunidades y ciudades autónomas con muestra ampliada, las mayores
diferencias entre los resultados de los estudiantes en el nivel ocupacional 1 (sin empleo, no
cualificados o semicualificados manuales) y aquellos con al menos un progenitor en el nivel
3 (cualificados) se producen en Melilla (51 puntos), estando también Madrid y Navarra por
encima de los 40 puntos. Las menores diferencias se observan en Canarias (25 puntos) y
Ceuta (30 puntos) (Figura 3.4b).
Figura 3.4b. Rendimiento medio en comprensión lectora según nivel de ocupación más alto
de los padres de los estudiantes. Diferencia entre el nivel más alto y el más bajo.
Comunidades autónomas participantes
Cuadro 3.3. Preguntas del cuestionario de familias sobre la cantidad de libros disponibles en el
hogar
Para analizar la influencia que la cantidad de libros disponibles en el hogar tiene en los
resultados, las opciones de respuestas se han agrupado en cuatro categorías, colapsando
las dos primeras en una de 0 a 25 libros y manteniendo las otras tres.
Como se puede observar en la Figuras 3.5a, casi uno de cada tres estudiantes de España
(31 %) vive en hogares en lo que se dispone de un máximo de 25 libros, 10 puntos
porcentuales más que la República Checa o Noruega, países con la menor proporción de
estudiantes en esta categoría, entre los seleccionados. Este porcentaje es igual o superior
al 40 % en Bulgaria, Bélgica (Fl.), Croacia, Portugal y Turquía.
En la categoría de más de 200 libros en el hogar, solo Madrid (23 %) supera la proporción de
1 de cada 5 estudiantes que disponen en casa de al menos 200 libros. Y, en el extremo
opuesto, Canarias, Ceuta y Melilla, no llegan a 1 de cada 10 estudiantes en esta situación
(Figura 3.5b).
En todo caso, las diferencias entre los rendimientos medios de los estudiantes en dichas
categorías varían notablemente de unos países a otros: desde los más de 75 puntos de
diferencia en Bulgaria (87 puntos), Turquía (87 puntos) y Austria (76 puntos), a los menos de
50 puntos de diferencia en Letonia (38 puntos) y Bélgica (Fl.) (48 puntos). En España, esta
diferencia alcanza los 55 puntos del mismo orden que Noruega, Finlandia o Portugal, entre
otros (Figura 3.6a).
Figura 3.6a. Rendimiento medio en comprensión lectora en función del número de libros
disponibles en el hogar. Diferencia entre las categorías más alta y más baja. Países
seleccionados
Figura 3.6b. Rendimiento medio en comprensión lectora en función del número de libros
disponibles en el hogar. Diferencia entre las categorías más alta y más baja. Comunidades
autónomas participantes
Un valor del ISEC inferior a 10, indica que el contexto social, económico y cultural del
estudiante es desfavorable, tanto más cuanto mayor sea, por abajo, la distancia a 10. Mientras
que cuanto más esté por encima de 10, más favorable será dicho contexto.
El ISEC relativo a cada país se ha obtenido realizando la media ponderada de sus estudiantes,
de manera que si el indicador de un país está por debajo de 10 es que su entorno social,
económico y cultural es inferior a la media y, por tanto, puede calificarse de desfavorable, y
favorable si queda por encima de 10.
Las Figuras 3.7a y 3.7b muestran, respectivamente, para los países seleccionados y las
comunidades autónomas participantes, los valores medios del ISEC. El valor del Índice Social,
Económico y Cultural varía entre los países seleccionados entre el 9,1 de Turquía y el 11,3 de
Noruega. El valor del ISEC para España (10,4) está aproximadamente al mismo nivel que
Francia y Bélgica (Fl.), pero por debajo de la media de los países seleccionados (10,5).
Estos resultados ponen de manifiesto que, aunque con claras diferencias de unos países a
otros, los sistemas educativos no son capaces de compensar las diferencias sociales,
económicas y culturas entre los estudiantes en el rendimiento en comprensión lectora.
Figura 3.8a. Puntuación media en lectura en cada uno de los cuartos del ISEC y diferencia de
puntuaciones entre el último y el primer cuarto. Países seleccionados
Figura 3.8b. Puntuación media en lectura en cada uno de los cuartos del ISEC y diferencia de
puntuaciones entre el último y el primer cuarto. Comunidades autónomas participantes
La relación entre el valor medio del ISEC en cada país y en las comunidades y ciudades
autónomas participantes y el rendimiento medio en comprensión lectora se puede ver en la
Figura 3.9. Se ha representado también la recta de regresión ajustada del rendimiento en
función del ISEC.
En la Figura 3.9 se puede ver que el 14,4 % de la variabilidad en el rendimiento entre los
países seleccionados y las comunidades y ciudades autónomas participantes (R2=0,144) es
explicada por el índice social económico y cultural. Por tanto, además del ISEC, otros factores
influyen en la variabilidad del rendimiento medio de las entidades seleccionadas o
participantes en este análisis.
Entre los países con puntuaciones medias estimadas más altas, el rendimiento medio de los
estudiantes de Irlanda, Croacia, Polonia, Bulgaria e Italia es significativamente más alto que
el esperado para su nivel de ISEC. En sentido contrario, los estudiantes de Bélgica (Fr.),
Chipre, Bélgica (Fl.), Francia y Eslovenia muestran un rendimiento en comprensión lectora
significativamente por debajo de lo esperado para su nivel de ISEC. El resto de países
incluidos muestran un rendimiento medio dentro de lo esperado por su nivel de estatus
social económico y cultural.
que queda significativamente por encima del esperado para su nivel de ISEC y Cataluña, que
muestra un rendimiento significativamente inferior al esperado.
Figura 3.9. Relación entre el rendimiento en compresión lectora y el ISEC. Países seleccionados
y comunidades autónomas participantes
Descontar la influencia del ISEC permite comparar los rendimientos medios de los países
seleccionados y de las comunidades y ciudades autónomas participantes en una situación
en la que las condiciones sociales, económicas y culturales fueran las mismas para todos los
estudiantes.
Para llevar a cabo este análisis, se ha estandarizado el ISEC a media 0 y desviación típica 1.
En la Figura 3.10 se puede ver que, descontado el efecto del ISEC, siguen observándose
diferencias notables en comprensión lectora entre los rendimientos medios de los países. Es
decir, vuelve a detectarse que, además del nivel socioeconómico de los estudiantes, otros
factores influyen en los resultados.
En las Figuras 3.11a y 3.11b se muestra la estimación del aumento en la puntuación media de
cada país y región participante por cada décima de incremento en el índice de estatus
social, económico y cultural. De esta manera, se puede visualizar la medida en que factores
sociales, económicos y culturales afectan, en cada país o región, al rendimiento académico
de los estudiantes.
Como se puede ver en las figuras, la influencia del ISEC en el rendimiento de los estudiantes
en comprensión lectora varía notablemente de unos países a otros, desde el aumento en
más de 4 puntos por cada décima de incremento del ISEC en Turquía (4,3 puntos) y Bulgaria
(4,1 puntos), países donde mayor influencia tiene en los resultados, entre los seleccionados
con datos disponibles, hasta donde menor es la influencia (2,6 puntos) de Bélgica (Fl.) y
España.
Figura 3.11a. Variación del rendimiento en compresión lectora por décima de incremento del
ISEC. Países seleccionados
En España, por tanto, el impacto del ISEC en los resultados en comprensión lectora es uno
de los más bajos, entre los países seleccionados, y en consecuencia se puede afirmar que
es uno de los países con mayor nivel de equidad en su sistema educativo. La misma
conclusión se puede extraer tras observar la Figura 3.11b respecto a las comunidades y
ciudades autónomas participantes en el estudio. El impacto en el rendimiento de cada
décima de incremento del ISEC varía desde los 2,1 puntos de Navarra hasta los 2,7 puntos de
Asturias.
Figura 3.11b. Variación del rendimiento en compresión lectora por cada décima de incremento
del ISEC. Comunidades autónomas participantes
Como ya se ha podido ver, el ISEC no influye por igual en todos los países o regiones que
se han incluido en este informe. Un dato interesante, que aporta información relevante sobre
la equidad de los sistemas educativos de los países, es la proporción de variabilidad en los
resultados que es atribuible a las diferencias sociales, económicas y culturales, información
que proporciona el coeficiente de determinación de la regresión lineal del rendimiento en
cada país sobre el estatus social económico y cultural. Cuanto más alto es el coeficiente de
determinación, es decir, cuanto mayor sea el porcentaje de variabilidad explicado por el
ISEC en los resultados, menor es el nivel de equidad del sistema educativo.
La Figura 3.12a muestra los países seleccionados para este informe ordenados de menor a
mayor porcentaje de variabilidad del rendimiento en comprensión lectora explicada por el
ISEC. Los países, entre los seleccionados, con la proporción más alta, superior al 25 % de
variabilidad explicada por el ISEC son Austria y Bulgaria, mientras que solo Letonia (9,2 %)
presenta porcentaje inferior al 10 % de variabilidad explicada por el ISEC.
Figura 3.12a. Porcentaje de variación del rendimiento en compresión lectora explicado por el
ISEC. Países seleccionados
Figura 3.12b. Porcentaje de variación del rendimiento en compresión lectora explicado por el
ISEC. Comunidades autónomas participantes
¾ Nivel medio: centros con ISEC promedio igual o superior a -0,299 e inferior a 0,526.
La Tabla 3.1 muestra la distribución de centros en los distintos niveles de ISEC, en función de
la titularidad. Se puede observar que del 25 % de centros de nivel de bajo, 23,01 puntos
porcentuales corresponden a centros de titularidad pública, mientras que del 25 % de
centros con ISEC promedio alto, 15,5 puntos porcentuales corresponden a centros de
titularidad privada y 9,5 a centros de titularidad pública.
Con el fin de analizar la distribución de los estudiantes de 4.º curso de Educación Primaria
de España, en función de su nivel socioeconómico y cultural, se ha dividido el ISEC de los
estudiantes en tres niveles: en el primer nivel (nivel bajo) se incluye el 25 % de estudiantes
con ISEC más bajo, en un tercer nivel se incluye el 25 % de estudiantes con ISEC más alto y
el 50 % de los estudiantes restantes se incluyen en un nivel intermedio (nivel medio). Los
puntos de corte del ISEC para cada uno de estos niveles son:
¾ Nivel medio: estudiantes con ISEC igual o superior a -0,4198 e inferior a 0,8400.
La Tabla 3.2 muestra, en porcentaje, la distribución de los estudiantes en los distintos niveles
de ISEC, en función de su escolarización en centros de titularidad privada o pública. Alrededor
de 2 de cada 3 estudiantes de 4.º curso de Educación Primaria (65,2 %) están escolarizados
en centros de titularidad pública y el 34,8 % en centros de titularidad privada. Entre otros
aspectos, se puede observar que la tasa de escolarización de estudiantes con nivel bajo de
ISEC en centros de titularidad pública (20,9 %) es casi 5 veces más alta que en centros de
titularidad privada (4,1 %).
La Figura 3.13 muestra la relación entre el rendimiento y el ISEC de los centros seleccionados
para la muestra en España. En la gráfica se distinguen los centros de titularidad pública de
los de titularidad privada. En total, la muestra consta de 452 centros educativos, de los cuales
312 son de titularidad pública y 140 de titularidad privada.
En general, se observa que, a mayor nivel socioeconómico y cultural del centro, mayor es el
rendimiento medio estimado en comprensión lectora por sus estudiantes. Sin embargo,
debe observarse también que centros educativos con valores similares de ISEC presentan
Figura 3.13. Relación entre el rendimiento en comprensión lectora y el ISEC de los centros
educativos españoles, distinguiendo por titularidad
Los recursos domésticos a disposición de los estudiantes para su potencial uso en la ayuda
al estudio suelen ser un indicador de la capacidad sociocultural y económica de las familias.
En el cuestionario de los estudiantes se pregunta por la disponibilidad de determinados
recursos que pudieran ser de ayuda para el estudio (Cuadro 3.4).
Cuadro 3.4. Pregunta del cuestionario de estudiantes sobre la disponibilidad, para el estudio,
de determinados recursos en el hogar
En el Promedio OCDE-28 (49 %) y en el Total UE (49 %), casi la mitad de los estudiantes
declara disponer de 4 o 5 de los recursos mencionados. Como en esas entidades, en la
mayoría de los países seleccionados, la proporción más alta de estudiantes se localiza en el
nivel 2, con las excepciones de Croacia, Noruega, Portugal, Bulgaria y Lituania, países en los
que más de la mitad del alumnado afirma disponer en casa de 6 o 7 de los recursos
presentados (Nivel 3). Destacan Bulgaria y Lituania en los que más del 70 % de los estudiantes
declara disponer, al menos, de 6 de los recursos presentados. España (49 %) es uno de los
países en que la proporción de estudiantes que dice disponer de 4 o 5 recursos es cercana
al 50 %.
La mayor disponibilidad de recursos no supone una mejor puntuación en todos los países
seleccionados. De hecho, puede verse en la Figura 3.15a que solo en Bulgaria, Turquía,
Lituania y Portugal los estudiantes que disponen de al menos 6 recursos (nivel 3) tienen
puntuación media significativamente más alta que los que disponen de 4 o 5 recursos (nivel
2). Además, en 10 países, el rendimiento medio en comprensión lectora no es significativamente
distinto entre los estudiantes de los niveles 2 y 3. En 16 países, entre los que está España, el
rendimiento medio es significativamente más alto entre los estudiantes que declaran
disponer de 4 o 5 recursos que entre los que dicen disponer del máximo de recursos.
Figura 3.15a. Rendimiento medio en comprensión lectora en función de los recursos educativos
disponibles en el hogar. Diferencia entre los niveles 1 y 3. Países seleccionados
La mayor disponibilidad de recursos no supone una mejor puntuación en todos los casos.
Únicamente en Navarra los estudiantes que disponen de al menos 6 recursos (nivel 3)
tienen puntuación media significativamente más alta que los que disponen de 4 o 5 recursos
(nivel 2) (Tabla 3.15). En Cataluña y Melilla el rendimiento medio en comprensión lectora no
es significativamente distinto entre los estudiantes de los niveles 2 y 3. En Ceuta y el resto
de comunidades autónomas, igual que en España, el rendimiento medio en comprensión
lectora es significativamente más alto entre los estudiantes que declaran disponer de 4 o 5
recursos que entre los que dicen disponer del máximo de recursos (Tabla 3.15).
Figura 3.15b. Rendimiento medio en comprensión lectora en función de los recursos educativos
disponibles en el hogar. Diferencia entre el nivel más alto y el más bajo. Comunidades
autónomas participantes
La distribución de chicas y chicos por niveles de rendimiento se puede ver en la Figura 3.16a
para los países seleccionados y en la Figura 3.16b para las comunidades y ciudades
autónomas.
El porcentaje de chicas en los niveles más altos (alto y avanzado) de comprensión lectora es,
en general, mayor que el de los chicos. Así es en el Promedio OCDE-28 (47 % chicas; 41 %
chicos) y en el Total UE (44 % chicas, 38 % chicos). Las mayores diferencias, a favor de las
chicas, de más de 10 puntos porcentuales, se dan en Letonia (13 puntos porcentuales),
Lituania (13 puntos porcentuales), Irlanda del Norte (11 puntos porcentuales) y Polonia (10
puntos porcentuales). En otros países esas diferencias en los niveles más altos no llegan al
punto porcentual, como es el caso de Estados Unidos, Israel, Portugal y España (Figura
3.16a).
En España, por tanto, los porcentajes de chicas y chicos que han alcanzado al menos el nivel
alto de comprensión lectora son prácticamente iguales (36 % chicas, 35 % chicos), aunque
estas cifras son significativamente inferiores tanto a las del Promedio OCDE-28 como a las
del Total UE (Figura 3.16a).
Las puntuaciones medias en comprensión lectora de las chicas son significativamente más
altas en las de los chicos tanto en el Promedio OCDE-28 (13 puntos) como en el Total UE (11
puntos). Entre los países con diferencias significativas, la brecha varía desde los 6 puntos en
Portugal o los 7 puntos de Italia y Bélgica (Fl.) a los más de 20 puntos en Lituania (21 puntos),
Irlanda del Norte (23 puntos) y Letonia (27 puntos).
La Figura 3.18 muestra, para España y las comunidades autónomas participantes, los
porcentajes y las puntuaciones medias estimadas que han obtenido los estudiantes que
están en el curso que por edad les corresponde (edad/curso) frente a los que no lo están (no
edad/curso).
En España, el 7 % del alumnado que cursa 4.º curso de Educación Primaria, debería estar, por
edad, en cursos superiores. Esa proporción es significativamente más alta en Madrid (9 %),
Ceuta (9 %), Castilla y León (10 %) y Navarra (11 %). Cataluña (98 %) y Asturias (95 %) presentan
los porcentajes más altos de estudiantes que están en el curso que por edad les
correspondería.
Figura 3.18. Porcentaje de estudiantes y resultados en función de la idoneidad por curso con IC.
Comunidades y ciudades autónomas
El 37 % de los estudiantes, en España, que están en el curso que les corresponde por edad,
alcanzan los niveles más altos de rendimiento en comprensión lectora (niveles alto y
avanzado). Estas proporciones están en torno a la mitad o más de los estudiantes en Asturias
(55 %), Castilla y León (49 %) y Madrid (49 %). Sin embargo, ese porcentaje en España es solo
de poco más de 8 puntos porcentuales entre los estudiantes que deberían, por edad, estar
en un curso superior. Estas cifras superan el 10 % en Canarias, Castilla y León, Madrid y
Navarra.
En España, el 22 % de los estudiantes que están en el curso que les corresponde por edad
no alcanza el nivel intermedio (niveles bajo o muy bajo), mientras que en Ceuta y Melilla
dicha cifra supera el 30 %. De otra parte, en España, el 54 % de los estudiantes que, por
edad, deberían estar en cursos más avanzados, no alcanza el nivel intermedio de rendimiento
en comprensión lectora. Esta cifra es ampliamente superada por Andalucía (72 %), Cataluña
(78 %) Melilla (70 %), frente al 36 % de Madrid.
Teniendo en cuenta que, en este último caso, se trata de estudiantes que, en su mayoría, han
tenido que repetir curso, se puede concluir que los objetivos que se persiguen en el proceso
de repetición de curso no parecen tener la efectividad que se espera. En consecuencia, es
necesario reflexionar acerca de la idoneidad de la repetición de curso y evaluar esta medida
como procedimiento para mejorar la formación de los estudiantes, ya que no parece corregir
como debiera las deficiencias de rendimiento de estos.
Figura 3.20a. Resultados según titularidad del centro educativo. Porcentajes y puntuaciones
medias con IC al 95 %. Comunidades y ciudades autónomas
Una vez descontado el efecto del ISEC, la diferencia entre las puntuaciones medias en
comprensión lectora de los estudiantes de centros de titularidad pública y privada se ve
claramente reducida y no es significativa en ningún caso, aunque en Ceuta y Melilla la
significatividad no se ha podido establecer debido a la magnitud de los errores en las
estimaciones (Figura 3.20b).
Figura 3.20b. Diferencias en las puntuaciones medias, según titularidad, antes y después de
descontar por el ISEC. Comunidades y ciudades autónomas
últimos tienen expectativas significativamente más altas para el rendimiento de sus hijos en
comprensión lectora (Villiger, Wandeler and Niggli, 2014).
Cuadro 3.5. Pregunta del cuestionario de familias sobre el país de nacimiento de su hijo o hija.
Debe observarse (Tabla 3.21) que la baja proporción de alumnado no nativo en algunos
países hace que los errores de estimación de las puntuaciones medias de estos estudiantes
sean muy altos, impidiendo, en esos casos, valorar con precisión la diferencia estimada
entre las puntuaciones de ambos grupos.
En 10 de los países seleccionados, entre ellos España, los estudiantes nativos tienen una
puntuación media en comprensión lectora significativamente más alta que la de los no
nativos, destacando Turquía (50 puntos) y Finlandia (56 puntos) (Figura 3.21). En España, la
diferencia alcanza los 26 puntos, significativamente más alta a favor del alumnado nativo,
aproximadamente del mismo orden que en Francia y Noruega, entre otros países.
Aunque diferentes estudios muestran que los estudiantes de centros ubicados en entornos
rurales muestran resultados inferiores a los de estudiantes en centros urbanos (Alordiah et
al., 2015, Abamba, 2021), estos dependen de las políticas educativas de los países, como se
puede ver en los resultados de esta sección.
En el cuestionario que debe completar la dirección acerca de las características del centro
educativo, se recoge información del tamaño de la población en la que se localiza el centro.
Para el análisis, se han agrupado las categorías iniciales de la pregunta en tres categorías:
En las Figuras 3.22a y 3.22b se muestra la proporción de estudiantes en cada una de estas
tres categorías, relativas al tamaño de la población en la que se ubica el centro, junto con las
puntuaciones medias en comprensión lectora estimadas para cada una de las categorías. En
las gráficas, se han ordenado los países de mayor a menor proporción de estudiantes en la
categoría de poblaciones de más de 100 000 habitantes.
de más de 100 000 habitantes. Este porcentaje es similar al del Promedio OCDE-28 y el Total
UE en poblaciones intermedias (33,3 % y 33 % respectivamente), y significativamente más
alto que el de estas dos entidades en las poblaciones más grandes: 27 % en el Promedio
OCDE-28 y 23 % en el Total UE.
Sin embargo, este patrón no es común a todos los países. Por ejemplo, en Bélgica (Fl.) el
alumnado de centros ubicados en poblaciones pequeñas obtiene 37 puntos más que sus
compañeros de poblaciones de más de 100 000 habitantes, y tan solo 4 puntos más
(diferencia no significativa) que los de poblaciones medianas.
En España, los estudiantes de localidades de más de 100 000 habitantes (531 puntos) tienen
un rendimiento medio en comprensión lectora significativamente más alto que los de
poblaciones de tamaño intermedio (519 puntos) y que los de poblaciones pequeñas (513
puntos) no apreciándose diferencias significativas entre las puntuaciones medias en estas
dos últimas categorías.
Figura 3.22a. Resultados en función del tamaño de la localidad donde se ubica el centro
educativo. Porcentajes y resultados. Países seleccionados
En Cataluña, sin embargo, son los estudiantes de las poblaciones más pequeñas los que
obtienen los mejores resultados y en Castilla y León las puntuaciones medias más altas las
obtienen los estudiantes de las poblaciones de tamaño intermedio (Figura 3.22b).
Figura 3.22b. Resultados en función del tamaño de la localidad donde se ubica el centro
educativo. Porcentajes y resultados. Comunidades y ciudades autónomas
En este apartado se analiza la repercusión que tiene el gusto por la lectura de los estudiantes
en los resultados en comprensión lectora. Para ello, se ha construido un índice de Gusto por
la Lectura a partir de las respuestas dadas por los estudiantes a las 10 preguntas recogidas
en el Cuadro 3.6.
A los estudiantes se les asignó una puntuación en la escala del índice de Gusto por la
Lectura teniendo en cuenta su grado de acuerdo con las ocho afirmaciones y la frecuencia
con que hicieron dos actividades de lectura fuera del centro escolar. El índice se estandarizó
a media 10 y desviación típica 2 para el conjunto de países participantes en PIRLS 2021.
¾ Estudiantes a los que les gusta mucho la lectura obtuvieron una puntuación igual o
superior a la puntuación mínima correspondiente a responder “muy de acuerdo” a
cuatro de las ocho afirmaciones y “poco de acuerdo” a las otras cuatro, además de
hacer, en promedio, una de las dos actividades de lectura fuera de la escuela “todos
o casi todos los días”.
¾ Estudiantes a los que no les gusta leer obtuvieron una puntuación igual o inferior a la
puntuación correspondiente a “un poco en desacuerdo” con cuatro de las ocho
afirmaciones y “un poco de acuerdo” con las otras cuatro, además de hacer una de
las dos actividades de lectura solo “una o dos veces al mes”, en promedio.
¾ Todos los demás estudiantes se incluyen en la categoría de les gusta leer un poco.
Los estudiantes a los que les gusta mucho la lectura tienen al menos 10,4 puntos en el
índice de gusto por la lectura y a los que no les gusta leer tienen puntuación igual o inferior
a 8,3 puntos.
En la Figura 3.23a se puede ver que más de la mitad de los estudiantes de Turquía (62 %),
Portugal (60 %), España (54 %) y Bulgaria (51 %) se incluye en la categoría “me gusta mucho
leer”, muy por encima del Promedio de la OCDE-28 (25 %) y del Total UE (35 %). En cambio,
en esta categoría se incluyen menos del 20 % de los estudiantes de cuarto grado de Noruega,
Dinamarca, Letonia, Países Bajos y Suecia.
Aproximadamente, solo uno de cada diez estudiantes de 4.º curso de Educación Primaria de
España (11 %) se incluye en la categoría “no me gusta leer” muy por debajo tanto del Promedio
OCDE-28 (30 %) como del Total UE (21 %). Entre los países seleccionados, únicamente Turquía
(6 %) y Portugal (6 %) presentan menor proporción de estudiantes en esta categoría. Suecia,
Dinamarca, Países Bajos, Letonia y Noruega son los países con los porcentajes más altos de
estudiantes clasificados en la categoría “no me gusta leer” (Figura 3.23a).
Figura 3.23a. Distribución de porcentaje de estudiantes en las categorías del índice de Gusto
por la lectura. Países seleccionados
Figura 3.23b. Distribución de porcentaje de estudiantes en las categorías del índice de Gusto
por la lectura. Ciudades y comunidades autónomas participantes
En general, como era de esperar, a mayor gusto por la lectura mejores resultados en
comprensión lectora, como queda reflejado en las Figuras 3.24a y 3.24b, la primera para los
países seleccionados y la segunda para las comunidades y ciudades autónomas participantes.
Las diferencias más altas, de más de 40 puntos, siempre en favor de los que les gusta
mucho leer, se observan en Australia, Irlanda del Norte y Dinamarca. Y las más bajas, dentro
de las que son significativas, se dan en Italia (8 puntos) y República Checa (12 puntos). En
España, la diferencia de puntuaciones medias en comprensión lectora asciende a 19 puntos,
misma diferencia que se produce en el Total UE y 3 puntos menos que la del Promedio
OCDE-28 (22 puntos) (Figura 3.24a).
Figura 3.24a. Resultados en comprensión lectora según clasificación de Gusto por la lectura.
Diferencia entre los que les gusta mucho leer y los que nos les gusta. Países seleccionados
En las comunidades autónomas participantes, los estudiantes a los que les gusta mucho
leer obtienen, en todos los casos, mejores puntuaciones que sus compañeros a los que no
les gusta leer. Solo en Canarias (10 puntos) esa diferencia no es estadísticamente significativa
y, entre las regiones y ciudades en las que sí es significativa la diferencia, esta varía desde
los 18 puntos de Andalucía a los 25 de Castilla y León. En Ceuta (17 puntos) y en Melilla (7
puntos) la diferencia, aunque no significativa, es a favor de los que no les gusta leer (Figura
3.24b).
Figura 3.24b Resultados en comprensión lectora según clasificación de Gusto por la lectura.
Diferencia entre los que les gusta mucho leer y los que nos les gusta. Ciudades y comunidades
autónomas participantes
3.10 Referencias
Acar-Erdol, T., Akin-Arikan, Ç. (2022). Gender gap in reading achievement: the mediating role
of metacognitive strategies and reading-related attitudes. Soc Psychol Educ 25,
537–566. https://doi.org/10.1007/s11218-022-09692-9
Chen, Qishan and Kong, Yurou and Gao, Wenyang and Mo, Lei. (2018). Effects of Socioeconomic
Status, Parent–Child Relationship, and Learning Motivation on Reading Ability.
Frontiers in Psychology. Doi: 10.3389/fpsyg.2018.01297.
Entorf, Horst. (2015). Migrants and educational achievement gaps. IZA World of Labor. 10.15185/
izawol.146.
Gil Flores, J. (2013). Medición del nivel socioeconómico familiar en el alumnado de Educación
Primaria. Revista de Educación, 298-322. doi:10.4438/1988-592X-RE-2011-362-162
Kirk, C. M., Lewis, R. K., Brown, K., Nilsen, C. y Colvin, D. Q. (2012). The gender gap in
educational expectations among youth in the foster care system. Children and
Youth Services Review, 34(9), 1683-1688. doi:10.1016/j.childyouth.2012.04.026
Lagravinese, R., Liberati, P. and Resce, G., (2020), The impact of economic, social and cultural
conditions on educational attainments. Journal of Policy Modeling, 42, issue 1, p. 112-
132.
Lepper, C., Stang-Rabrig, J., and McElvany, N. (2022). Gender differences in reading: Examining
text-based interest in relation to text characteristics and reading comprehension.
Learning and Instruction, 82, https://doi.org/10.1016/j.learninstruc.2022.101680.
Niederle, M. y Vesterlund, L. (2010). Explaining the gender gap in Math test scores: the
role of competition. Journal of Economics Perspectives, 24(2), 129-144. doi:10.1257/
jep.24.2.129
OECD (2011), “How do girls compare to boys in reading skills?”, in PISA 2009 at a Glance,
OECD Publishing, Paris. DOI: https://doi.org/10.1787/9789264095250-5-en
OECD. (2015). The ABC of Gender Equality in Education: Aptitude, Behaviour, Confidence.
Paris: OECD Publishing. doi:10.1787/9789264229945-en
OECD (2018) OECD. The evolution of gender gaps in numeracy and literacy between
childhood and adulthood. Paris: OECD Education Working Paper No. 184.
Villiger, C., Wandeler, C, Niggli, A. (2014). Explaining differences in reading motivation between
immigrant and native students: The role of parental involvement. International Journal
of Educational Research. 64. 12-25. 10.1016/j.ijer.2013.10.004.
541
528
508
Aquellos alumnos que tienen
536 mayor sentido de pertenencia
525
508 al centro obtienen mejor
rendimiento.
527
513
501
Profesorado
0
Poco satisfecho Algo satisfecho Muy satisfecho
El rendimiento de los estudiantes puede verse afectado en mayor o menor medida por el
entorno en el que se desarrolla su actividad escolar. En este capítulo se presentan algunos
índices del contexto personal y del entorno docente y escolar del alumnado de 4.º grado y
se analiza la influencia de cada uno de ellos en el rendimiento en comprensión lectora en la
evaluación PIRLS 2021. Los índices se han elaborado con las respuestas dadas por los
estudiantes, sus profesores y profesoras y el director o directora del centro educativo en sus
respectivos cuestionarios.
El contexto escolar, tanto el propio del docente como el ambiente en el que se desarrollan
las actividades escolares, tiene también relevancia tanto en el rendimiento de los estudiantes
como en su bienestar, e influye significativamente en su desarrollo académico y emocional.
La información de los factores asociados al clima escolar que se tratan en este capítulo
proviene de las respuestas de las direcciones escolares, a través del cuestionario de centro,
e informa del énfasis que se pone en el éxito académico y de la disciplina escolar existentes
en los centros; los docentes dan su opinión sobre la seguridad y el orden existente en el
centro, así como de su satisfacción con la carrera docente entre otros aspectos.
Adicionalmente, los estudiantes declaran sobre su sentido de pertenencia al centro en el
que cursan sus estudios, así como su exposición al acoso.
134 |
4 Contexto de aprendizaje. Alumnado, profesorado y escuela
Con las variables disponibles en los cuestionarios reseñados se han construido los siguientes
índices:
¾ Exposición al acoso
¾ Disciplina en la escuela
De esta forma, los índices elegidos van más allá de los aspectos socioeconómicos tratados
en el capítulo 3 y profundizan en temas personales, del docente y del entorno escolar. La
construcción de estos índices permite la comparación entre países y regiones. Además, de
esta manera se puede analizar la influencia de estos factores en los resultados de los
estudiantes.
El sentido de pertenencia suele definirse como “la necesidad de formar y mantener al menos
un número mínimo de relaciones interpersonales basadas en la confianza, la aceptación, el
cariño y el apoyo” (Baumeister y Leary, 1995). Las personas con sentido de pertenencia se
sienten aceptadas, queridas y conectadas con los demás y sienten que pertenecen a la
comunidad. El sentido de pertenencia al colegio refleja cómo se sienten los estudiantes de
aceptados, respetados y apoyados en su contexto escolar (Goodenow y Grady, 1993).
Conceptos relacionados con el sentido de pertenencia incluyen conectividad escolar,
compromiso escolar, identificación escolar y vinculación escolar (Slaten et al., 2016). Todo
ello teniendo en cuenta que, a esta edad, aproximadamente 10 años, la familia es aún el
centro de la vida social y emocional de los estudiantes.
Numerosos son los factores asociados positivamente con el sentido de pertenencia de los
estudiantes al centro escolar: un clima de disciplina positivo (Ma, 2003, OECD, 2017); la
Para construir el índice de sentido de pertenencia al centro del alumnado, los estudiantes
fueron puntuados de acuerdo con sus respuestas a seis afirmaciones en la escala sentido
de pertenencia a la escuela (ver Cuadro 4.1).
Cuadro 4.1. Pregunta del cuestionario del alumnado sobre el sentido de pertenencia al centro
En las Figuras 4.1a y 4.1b se muestran los países seleccionados, el Promedio OCDE-28 y el
Total UE y las comunidades y ciudades autónomas participantes ordenados en sentido
decreciente según el porcentaje de la categoría “Alto Sentido de Pertenencia a la Escuela”.
El primer resultado que se observa es que la mayoría de los estudiantes de 4.º grado tiene
un alto sentido de pertenencia al centro y este se relaciona con unos buenos resultados en
comprensión lectora.
Portugal es el país en el que mayor proporción de estudiantes declara tener un alto sentido
de pertenencia al centro (82 %). También manifiestan este sentimiento un alto porcentaje de
estudiantes en Bulgaria (77 %), Turquía (76 %) y España (73 %). Más de la mitad de los
estudiantes en el Promedio OCDE-28 (57 %) y el Total UE (56 %) tiene un alto sentido de
pertenencia. Así, España obtiene un resultado notablemente mejor que en el Promedio
OCDE-28 y el Total UE. Sin embargo, es llamativo el resultado que se extrae de Croacia
(38 %), un país con alto rendimiento en comprensión lectora y en el que, sin embargo, la
proporción de estudiantes con alto sentido de pertenencia queda lejos del 50 %.
En la mayoría de países seleccionados para este informe, los estudiantes con alto sentido de
pertenencia al centro tienen puntuaciones medias estimadas en comprensión lectora más
altas que en las otras dos categorías, lo que significa que aquellos estudiantes que manifiestan
un alto sentido de pertenencia al centro en el que cursan sus estudios obtienen mejor
rendimiento que los que no tienen este sentimiento.
La diferencia de rendimiento medio estimado entre los estudiantes españoles con sentido
de pertenencia alto y aquellos con sentido de pertenencia bajo es de 26 puntos, entre las
más bajas observadas. Entre las comunidades y ciudades autónomas españolas, la diferencia
más alta entre estas categorías se da en Ceuta (56 puntos), significativamente más elevada
que la que se estima para el conjunto de estudiantes en España, y la más baja en Castilla y
León (18 puntos), como se puede observar en la Figura 4.1b.
Los estudiantes fueron puntuados de acuerdo con sus respuestas a la frecuencia con la que
experimentaron diez comportamientos de acoso en el indicador de “Acoso escolar”. Con las
respuestas del alumnado a estas afirmaciones se construye el índice de acoso escolar en
una escala con media 10 y desviación típica 2 para todos los países participantes, de tal
manera que, a mayor valor del índice, menor es la exposición al acoso. El indicador se dividió
en tres niveles o grados de acoso: los estudiantes que son intimidados o acosados “Casi
nunca”, los estudiantes que lo sufrieron “Mensualmente” y aquellos que estuvieron expuestos
a la intimidación o acoso “Semanalmente” (ver Cuadro 4.2).
Cuadro 4.2. Pregunta del cuestionario del alumnado sobre acoso escolar
La Figura 4.2a resume las respuestas de los estudiantes sobre la frecuencia con la que
fueron intimidados en la escuela. En el Promedio OCDE-28 y en el Total UE, la mayoría de los
estudiantes de cuarto grado (61 % y 64 %, respectivamente) informaron que casi nunca fueron
intimidados. Sin embargo, el 28 y el 26 por ciento informó que fueron intimidados
mensualmente y el 11 y 9 por ciento semanalmente. Los resultados obtenidos muestran que
el indicador de acoso escolar y el rendimiento en lectura están directamente relacionados,
y cada categoría sucesiva de mayor acoso se relacionaba con una disminución en el
rendimiento promedio en lectura (Promedio OCDE-28 y Total UE de 546 y 541 para Casi
nunca, 527 y 520 para Mensual y 488 y 482 para Semanalmente).
De entre los países seleccionados, el porcentaje de estudiantes que casi nunca se ven
expuestos a situaciones de acoso varía ampliamente: Francia presenta el 73 % de alumnado
en esta situación mientras que en Nueva Zelanda tan solo el 46 % del alumnado informa no
sufrir acoso casi nunca. En el caso de España el 57 % del alumnado dice no enfrentarse a
situaciones de acoso casi nunca, el 30 % mensualmente y el 13 % semanalmente, valores
ligeramente peores que los promedios tanto de la OCDE-28 como del Total UE. Los resultados
muestran que en promedio el rendimiento de los estudiantes que sufren acoso o intimidación
Las condiciones laborales del profesorado pueden influir en los resultados del alumnado
(Dolton y Marcenaro-Gutiérrez, 2011). De hecho, las condiciones laborales y el salario son las
variables extrínsecas que, junto con otras intrínsecas, como el grado de autonomía y
motivación, la interacción con el resto del profesorado, y la interacción con el alumnado,
mejor sirven como predictores del grado de satisfacción del profesorado con su profesión
(Kim y Loadman, 1994), el cual parece tener influencia sobre el rendimiento del alumnado en
lectura, aunque no así en matemáticas (Banerjee et al., 2017). Esta influencia, en todo caso,
podría ser indirecta, y ser el resultado del efecto que tiene el grado de satisfacción del
profesorado con su trabajo sobre el clima escolar del centro (Dicke, et al., 2020). Esto hace
que los docentes que están satisfechos con su profesión y las condiciones de trabajo en su
escuela estén más motivados para enseñar y preparar su enseñanza en clase y como
consecuencia es más probable que decidan no abandonar la profesión.
Los estudiantes fueron puntuados de acuerdo con la frecuencia con la que sus profesores y
profesoras respondieron positivamente a las seis afirmaciones en la escala de Satisfacción
Laboral del Docente (Cuadro 4.3).
Cuadro 4.3. Pregunta del cuestionario del profesorado sobre su satisfacción con su profesión
como docente
Como en los casos anteriores, posteriormente el indicador se dividió en tres niveles o grados
de satisfacción docente: los estudiantes con docentes “Muy Satisfechos”, aquellos cuyos
profesores y profesoras están “Algo Satisfechos”, y los estudiantes con docentes “Menos o
Poco satisfechos”.
La Figura 4.3 presenta los resultados de la escala de Satisfacción Laboral de los Docentes
(Estandarizada para el total de los países participantes en PIRLS 2021) frente al rendimiento
estimado de los países miembros de la OCDE y/o de la UE participantes en el estudio.
En la Figura 4.3 se observa que España (0,79) es el país donde mayor satisfacción laboral
presentan los docentes encuestados, muy por encima del Promedio OCDE-28 (0,04) o el
Total UE (0,00). Polonia (-0,58) y Francia (-0,46) son los países en los que los docentes
reportan menor satisfacción con su profesión.
La conclusión más relevante que se puede extraer de la Figura 4.3 es que de manera
agregada no hay correlación significativa entre el índice de Satisfacción Laboral de los
Docentes y el rendimiento del país, estimándose un coeficiente de determinación muy
próximo a cero (Países del Promedio OCDE-28, 0,047 y países del Total UE, 0,00).
En la Figura 4.4a se muestran los porcentajes de los países y regiones en orden decreciente
según el porcentaje de la categoría “Muy satisfecho”, junto con los resultados en comprensión
lectora para cada una de las categorías en las que se ha dividido el índice. Ocho de cada 10
docentes en España (81 %) se sienten muy satisfechos con su profesión, siendo el país en el
que mayor porcentaje se da de entre los países y regiones seleccionados. Este porcentaje
es inferior en 30 puntos porcentuales en el Promedio OCDE-28 (51 %) y el Total UE (50 %).
Los países con las proporciones más bajas de profesores muy satisfechos son Polonia (27 %)
y Francia (31 %).
Figura 4.4a. Porcentaje de alumnado cuyos profesores están satisfechos con su profesión
docente y rendimiento en lectura. Países seleccionados
Figura 4.4b. Porcentaje de alumnado cuyos profesores están satisfechos con su profesión
docente y rendimiento en lectura. Comunidades y ciudades autónomas participantes
Los estudiantes fueron puntuados de acuerdo con las respuestas de sus profesores y
profesoras sobre ocho factores relacionados con sus estudiantes que podrían limitar la forma
en que enseñan en su clase en la escala de Instrucción en el Aula Limitada por los Factores
de los Estudiantes. Esta escala se dividió en tres categorías: los estudiantes con docentes
que sintieron que su enseñanza estaba “Muy poco” limitada, los estudiantes con profesorado
que se sentía “Algo o Hasta cierto punto” limitada y aquellos que tenían profesores y
profesoras que sentían “Muy” limitada su docencia por los factores que se analizaban (Cuadro
4.4).
Cuadro 4.4. Pregunta del cuestionario del profesorado sobre los factores que limitan su forma
de enseñar
La Figura 4.5a presenta los resultados de los docentes sobre la medida en que la instrucción
de lectura en el aula de cuarto grado se vio limitada por la preparación y disposición para
aprender de los estudiantes (es decir, falta de habilidades, falta de sueño, mala nutrición,
ausencia, interrupción, desinterés o problemas de aprendizaje).
Como era de esperar, hubo una relación directa entre el grado de limitación de la enseñanza
y el rendimiento promedio en lectura, con resultados sucesivamente más bajos para cada
categoría de mayor impacto en la enseñanza (541, 525 y 504, respectivamente para el caso
del Promedio OCDE-28; 537, 521 y 500 para el Total UE; 526, 508 y 482 en el caso de
España). Tanto en el Total UE como en el Promedio OCDE-28 el rendimiento en lectura fue
37 puntos más alto para los estudiantes cuyos profesores y profesoras informaron que la
enseñanza estaba muy poco limitada en comparación con los estudiantes cuyo profesorado
informó que su enseñanza estaba muy limitada. Esta diferencia asciende hasta los 44 puntos
en el caso de España (Figura 4.5a).
Analizando los resultados presentados en la Figura 4.5b para las comunidades y ciudades
autónomas que ampliaron muestra, la Comunidad de Madrid (87 %) es la comunidad autónoma
que mayor porcentaje de alumnado presenta con docentes que aluden tener muy poco
impacto de los factores a estudio, mientras que la Ciudad Autónoma de Melilla (47 %) es la
que menor porcentaje presenta. Cabe resaltar que las Ciudades Autónomas de Ceuta y
La seguridad y el orden en los centros educativos son condiciones esenciales para asegurar
la calidad del proceso de enseñanza-aprendizaje. Este es uno de los aspectos que las
familias consideran más importantes a la hora de elegir el centro educativo en el que
escolarizarán a sus hijas e hijos, junto con el clima escolar y la reputación del centro, incluso
prefiriendo la seguridad del centro al rendimiento académico del alumnado (OECD, 2016,
2019).
Estudios realizados mediante evaluaciones objetivas del entorno en el que se ubica el centro
demuestran que la seguridad del centro y el vecindario se asocian fuertemente con el
rendimiento académico, ya que la evidencia obtenida pone de relieve los efectos adversos
de la exposición a la violencia comunitaria y la influencia del grado de seguridad percibida
en el rendimiento académico de niñas y niños de primaria (Milam et al., 2010). Sin embargo,
La Figura 4.6a. presenta los porcentajes de estudiantes en las escuelas clasificados según
los juicios de los docentes sobre la seguridad. Hubo una variación considerable, pero en
promedio, 1 de cada dos estudiantes de cuarto grado del Promedio OCDE-28 asistía a
escuelas consideradas por sus profesores como muy seguras y ordenadas y casi todos los
demás (47 %) asistían a escuelas juzgadas algo seguras y ordenadas. Solo el 3 por ciento, en
promedio, asistía a escuelas que se consideraban menos que seguras y ordenadas. Datos
relativamente peores ofrecieron las respuestas de los docentes del Total UE (45 %, 52 % y
3 %). España es el país, de entre los seleccionados, en el que los docentes estiman que hay
más seguridad y orden, puesto que más de 3 de cada 4 estudiantes asiste a centros donde
el docente se siente seguro y con orden para impartir sus clases.
Figura 4.6a. Porcentaje de alumnado en cada categoría de seguridad y orden declarada por su
profesorado y rendimiento en lectura. Países seleccionados
Hubo una asociación positiva directa entre escuelas seguras y ordenadas y el rendimiento
promedio en lectura (497, 526 y 536, respectivamente para el Promedio OCDE-28; 505, 524
y 533 para el Total UE). También la hubo en España con incrementos similares a los
presentados en el Promedio OCDE-28 (487, 517 y 523) (Figura 4.6a).
Figura 4.6b. Porcentaje de alumnado en cada categoría de seguridad y orden declarada por su
profesorado y rendimiento en lectura. Comunidades y ciudades autónomas participantes
La diferencia de rendimiento medio estimado entre los alumnos españoles que asisten a
centros cuyos profesores consideran muy seguros y ordenados y aquellos que asisten a
centros poco seguros según la percepción de sus docentes es de 36 puntos. Entre las
comunidades y ciudades autónomas españolas, la diferencia más alta entre estas categorías
se da en Cataluña (94 puntos), significativamente más elevada que la que se estima para el
conjunto de estudiantes en España, y la más baja en Principado de Asturias (0 puntos,
considerando la categoría “Algo seguro” pues no posee alumnos en la categoría “Poco
seguro”), como se puede observar en la Figura 4.6b.
Para recopilar información sobre la composición socioeconómica de las escuelas a las que
asisten los estudiantes de cuarto grado, PIRLS pidió a los directores/as de las escuelas que
estimaran los porcentajes de estudiantes económicamente desfavorecidos y económicamente
acomodados en la escuela (Cuadro 4.6).
Para analizar la composición de los centros a partir de las respuestas de los/as directores/as
a la pregunta del Cuadro 4.6, se construye una escala con las siguientes categorías:
A. Centros aventajados: son centros escolares donde más del 25 % de los estudiantes
matriculados proviene de hogares económicamente acomodados y no más del 25 %
proviene de hogares económicamente desfavorecidos. En estos centros los estudiantes
que provienen de hogares favorecidos son relativamente más que los de hogares
desfavorecidos.
B. Centros desaventajados: centros escolares en los que más del 25 % de los estudiantes
matriculados proviene de hogares socioeconómicamente desfavorecidos y no más del
25 % de hogares económicamente acomodados. En estos centros los estudiantes de
hogares favorecidos son relativamente menos que los de hogares desfavorecidos.
Los datos que reportan los responsables de los centros educativos en España (61 %) son
sensiblemente mejores que el Total UE y Promedio OCDE y solo superados por Croacia
(61 %), Suecia (63 %) y Lituania (78 %) si consideramos el porcentaje de alumnado en centros
aventajados como indicador de referencia.
Figura 4.7a. Porcentaje de alumnado que asiste a escuelas según la categoría y rendimiento en
lectura. Países seleccionados
En el caso de las comunidades y ciudades autónomas participantes, se puede ver una alta
heterogeneidad en cuanto a las proporciones de estudiantes en cada una de las tres
categorías de centro. En Melilla (36 %), Comunidad Foral de Navarra (36 %), Canarias (37 %) y
Ceuta (40 %), menos del 50 % de los estudiantes está matriculados en centros
socioeconómicamente aventajados, siendo la Comunidad de Madrid en la que mayor
proporción de alumnado se encuentra matriculado en este tipo de centro, 3 de cada 4. Por
otro lado, únicamente en Castilla y León y Andalucía no llega al 10 % el porcentaje de
estudiantes en centros desaventajados. En las ciudades autónomas de Ceuta y Melilla, ese
porcentaje está por encima del 44 % (Figura 4.7b).
Figura 4.7b. Porcentaje de alumnado que asiste a escuelas según la categoría y rendimiento en
lectura. Comunidades y ciudades autónomas participantes
Investigaciones recientes muestran que los/as directores/as no son, por lo general, expertos
en aspectos disciplinarios, y esto es especialmente cierto en los centros de primaria
(Lowenhaupt y McNeil, 2018). Sin embargo, los centros educativos deben revisar y renovar
de forma continua sus normas de disciplina, ya que se trata de un proceso en permanente
evolución, por razones de seguridad y objetivos educativos (Garman y Walker, 2010). Si las
reglas disciplinarias no se aplican de manera consistente, los problemas disciplinarios
pueden aumentar y, en consecuencia, puede empeorar el comportamiento de los estudiantes,
entre sí y con el centro escolar (Cameron y Sheppard, 2006). Estudios recientes ponen de
manifiesto la relación significativa que existe entre la disciplina escolar y el éxito académico
en general (Foncha et al., 2017).
Los estudiantes de escuelas con “Casi Ningún Problema” obtuvieron una puntuación en la
escala de al menos 9.9, lo que corresponde a que sus directores/as reportaron “no hay
problema” para cinco de los diez temas y “problema menor” para los otros cinco, en promedio.
Los estudiantes de escuelas con “Problemas Moderados a Severos” obtuvieron un puntaje
no superior a 7.7, lo que corresponde a que sus directores/as reportaron “problema moderado”
para cinco de los diez temas y “problema menor” para los otros cinco, en promedio. Todos
los demás estudiantes asistieron a escuelas con “Problemas Menores”. Puesto que en casi
la totalidad de los países seleccionados la categoría “Problemas Moderados a Severos”
presenta un porcentaje muy pequeño, se ha decido para este informe colapsarla con la
categoría “Problemas Menores”, construyendo así una nueva categoría denominada “Al
Menos es un Problema Menor”.
En la Figura 4.8a se presentan los resultados de los países y regiones seleccionadas junto
con el Promedio OCDE-28 y el Total UE en PIRLS 2021 para la escala Disciplina Escolar. Los
países están ordenados por la diferencia entre los promedios estimados para las categorías
presentadas anteriormente. Adicionalmente, junto al país y entre paréntesis se presenta el
valor estimado del país en la escala Disciplina Escolar.
A la vista de los resultados obtenidos, tanto el Promedio OCDE-28 (10,2) como el Total UE
(10,1) presentan valores estimados para el índice próximos al valor medio (10 puntos).
Considerablemente superior es el valor obtenido por España (11,0), lo que supone media
desviación típica por encima del promedio y solo superado por Irlanda del Norte (11,1) y Malta
(11,4). Así pues, se puede afirmar que el profesorado español considera con carácter general
que la disciplina no supone casi ningún problema (Figura 4.8a).
La importancia del éxito académico se ha puesto de relieve con frecuencia, ya que tiene
relación directa con el futuro de los estudiantes, una vez graduados: los estudiantes con
buenos títulos o altos niveles de educación tienen más probabilidades de encontrar
rápidamente empleo y de recibir un salario más alto que otros sin éxito académico (Fleetwood
y Shelley, 2000; Rentner y Kober, 2001).
Los estudiantes fueron puntuados de acuerdo con las respuestas de sus directores a doce
aspectos en la escala de Énfasis Escolar en el Éxito Académico, referentes a las expectativas
del centro educativo acerca del rendimiento académico de sus estudiantes. Con las
respuestas a estas cuestiones se construye el índice con media 10 y desviación típica 2 para
el conjunto de países participantes. A mayor valor del índice, más alto es el énfasis que
ponen los centros en el éxito académico de sus estudiantes.
El índice se dividió posteriormente en tres categorías: “Énfasis Muy Alto”, “Énfasis Alto” y
“Énfasis Medio”.
del 15 % de los centros presenta un “Énfasis muy alto” en el éxito académico, mientras en
Eslovenia es el 0 % (Ver Figura 4.9a).
Como se muestra en la Figura 4.9a., un mayor énfasis en el éxito académico está relacionado
con un promedio más alto de rendimiento en lectura. Se puede observar que para el
Promedio OCDE-28 aquellos estudiantes que asisten a centros educativos que reportan
poner un “Énfasis muy alto” en el éxito académico obtienen en promedio 552 puntos. Los
estudiantes que asisten a centros con “Énfasis alto” tienen una estimación de 540 puntos y
los que asisten a centros con “Énfasis medio” 517 puntos (35 puntos de diferencia en las
categorías extremas). Valores similares se repiten para el Total UE (546 puntos, 535 puntos
y 515 puntos, respectivamente; 31 puntos de brecha en las categorías “Muy alto” y “Medio”).
Para el caso de España el patrón se repite, aunque con una amplitud menor entre categorías
extremas (529 puntos, 524 puntos y 506 puntos; 23 puntos de diferencia entre las categorías
“Muy alto” y “Medio”).
La Figura 4.9b muestra los resultados de las comunidades y ciudades autónomas, ordenados
según el porcentaje de estudiantes en la categoría de “Énfasis muy alto”, de mayor a menor.
No existe homogeneidad ni patrón en cuanto a los porcentajes de estudiantes que asisten
a centros de las tres categorías. Por ejemplo, en Cataluña (29 %) casi 1 de cada 3 estudiantes
de cuarto grado asistió a escuelas donde el director o directora informó poner un “Énfasis
muy alto” en el éxito académico, prácticamente el triple que en Castilla y León, siendo
además en Ceuta el 0 %. Sin embargo, en Cataluña no hay prácticamente diferencia entre
los resultados en lectura de los estudiantes que asistieron a centros de las tres categorías,
mientras que en Ceuta la diferencia entre las categorías Alto y Medio es de 48 puntos.
Los estudiantes fueron puntuados de acuerdo con las respuestas de sus directores con
respecto a catorce recursos escolares y del aula en la escala Instrucción Afectada por la
Escasez de Recursos de Lectura. Por un lado, están los recursos generales del centro y, por
otro, los recursos específicos para la enseñanza de la lectura, tanto humanos como materiales
(Cuadro 4.9). Se analiza la influencia del índice en una escala continua, con media 10 y
desviación típica 2 para todos los países participantes. A mayor valor del índice, menor es la
incidencia que la falta de recursos tiene, según los/as directores/as de cada país, en la
capacidad educativa de los estudiantes.
Las puntuaciones de corte dividen la escala en tres categorías. Los estudiantes en las
escuelas donde la instrucción “No se Vio Afectada” por la escasez de recursos obtuvieron
una puntuación igual o superior a la puntuación de corte correspondiente a sus directores/
as que informaron que la escasez afectó de media la instrucción “en absoluto” para siete de
los catorce recursos y “un poco” para los otros siete. Los estudiantes en las escuelas donde
la instrucción “Se Vio Muy Afectada” obtuvieron un puntaje igual o inferior al puntaje de corte
correspondiente a sus directores/as que informaron que la escasez afectó la instrucción
“mucho” para siete de los catorce recursos y “algo” para los otros siete, en promedio. Todos
los demás estudiantes asistieron a escuelas donde la instrucción “Se Vio Algo Afectada” por
la escasez de recursos. Puesto que en casi la totalidad de los países seleccionados la
categoría “Se Vio Muy Afectada” presenta un porcentaje muy pequeño se ha decidido para
este informe colapsarla con la categoría “Se Vio Algo Afectada”, construyendo así la categoría
denominada “Se Vio Algo Afectada”.
En la Figura 4.10a se presentan los resultados de los países y regiones seleccionadas junto
con el Promedio OCDE-28 y el Total UE en PIRLS 2021 para la escala Instrucción Afectada
por la Escasez de Recursos de Lectura. Los países están ordenados por la diferencia entre
los promedios estimados para las categorías presentadas anteriormente. Adicionalmente,
junto al país y entre paréntesis, se presenta el valor estimado del país en la escala Instrucción
Afectada por la Escasez de Recursos de Lectura.
A la vista de los resultados obtenidos, tanto el Promedio OCDE-28 (10,6) como el Total UE
(10,4), presentan valores estimados para el índice ligeramente superiores al valor medio (10
puntos). El valor obtenido por España (10,6) se encuentra en la media de los países
seleccionados. Especial interés tienen los resultados estimados del índice para Bulgaria
(12,4) (más de una desviación típica por encima de la media) y Países Bajos (11,7) (Figura 4.10a).
PIRLS 2021 demuestra que el rendimiento promedio en lectura fue más alto para los
estudiantes de escuelas donde “No se Vio Afectada” la Instrucción por escasez de recursos
que para aquellos en escuelas donde se “Vio Algo Afectada” (539 vs. 530 en el Promedio
OCDE-28; 539 vs 524 en el Total UE). Estos aproximadamente 15 puntos de diferencia entre
ambas categorías que se presentan en el Total UE se mantienen en España (531 vs 515) y
resultan ser estadísticamente significativos. Cabe destacar que tan solo 11 de los países
seleccionados presentan diferencias estadísticamente significativas entre estas categorías,
y tan solo Israel (22 puntos), Nueva Zelanda (22 puntos) y Finlandia (20 puntos) presentan
diferencias significativas iguales o superiores a los 20 puntos (Figura 4.10a).
La lectura temprana y las matemáticas elementales son dos áreas importantes que se
desarrollan durante el período de la primera infancia. Ambas son fundamentales para el éxito
escolar temprano, y el rendimiento de los niños en estas áreas tiende a ser estable con el
tiempo (Missall et al., 2012; Morgan et al., 2011). Además, estas dos áreas de competencias
parecen estar relacionadas entre sí. Por ejemplo, los niños pequeños con retrasos en el
desarrollo de habilidades de lectura tienden también a retrasarse en las habilidades
matemáticas tempranas (Krajewski y Schneider, 2009). Además, cada vez hay más pruebas
de que tanto la lectura temprana como las habilidades de cálculo temprano son fuertes
predictores del rendimiento a largo plazo de niños y niñas (Duncan et al., 2007; Watts et al.,
2014).
Para proporcionar información sobre la base de los estudiantes para la instrucción formal de
lectura cuando ingresaron a la escuela, PIRLS preguntó a los/las directores/as cuántos
estudiantes tenían habilidades básicas de alfabetización (por ejemplo, escribir el alfabeto,
escribir oraciones) cuando comenzaron el primer grado: menos del 25 %, 25– 50 %, 51–75
% o más del 75 %.
La Figura 4.11a presenta los porcentajes de estudiantes en cada una de las cuatro
clasificaciones de escuelas, con los resultados ordenados según el porcentaje de estudiantes
en la categoría “más del 75 %”, de mayor a menor.
Figura 4.11a. Alumnado que ingresa en primaria con habilidades básicas de lectoescritura y
rendimiento en lectura. Países seleccionados
por ciento estaban en escuelas donde “menos del 25 %” de los estudiantes ingresan con
habilidades básicas de lectoescritura. En el Total UE (18 %, 18 % y 40 %) los porcentajes por
categoría son muy similares al Promedio OCDE-28. En España (51 %) más de la mitad de los
estudiantes entran en primaria con habilidades básicas de lectoescritura, solo superado por
el anteriormente citado Irlanda: el resto de las categorías toman 29 %, 9 % y 11 %
respectivamente.
El rendimiento promedio en lectura fue más alto para los estudiantes en escuelas donde un
mayor porcentaje de estudiantes que ingresaban estaban dotados de habilidades básicas
de alfabetización. Los estudiantes del Promedio OCDE-28 que asistieron a escuelas donde
“más del 75 %” ingresó a primer grado con habilidades básicas de lectoescritura tuvieron el
rendimiento promedio más alto (541 puntos), seguidos por los estudiantes en escuelas donde
“51-75 %” ingresaron con habilidades básicas de lectoescritura (534 puntos). Los estudiantes
en las dos categorías escolares más bajas—“25–50 %” y “menos de 25”—tenían un
rendimiento promedio relativamente más bajo (530 y 524 puntos, respectivamente). Para el
Total UE los rendimientos en lectura, aunque inferiores, siguieron el mismo patrón (537, 529,
532 y 522, puntos respectivamente). Algo similar ocurre con los rendimientos obtenidos por
los estudiantes españoles (527, 519, 515 y 500 puntos, respectivamente) de cada una de las
categorías.
La Figura 4.11b muestra los resultados de las comunidades y ciudades autónomas, ordenados
según el porcentaje de estudiantes en la categoría de “más del 75 %”, de mayor a menor. No
existe homogeneidad en cuanto a los porcentajes de estudiantes que asisten a centros de
las cuatro categorías. En el Principado de Asturias (62 %), Comunidad de Madrid (63 %) y
Castilla y León (78 %) los estudiantes que asistieron a escuelas donde “más del 75 %” tenían
habilidades básicas de lectoescritura al comenzar la primaria suponen más del 60 % del
total, no llegando al 20 % en la Ciudad Autónoma de Melilla (18 %), menos de la mitad que en
la Ciudad Autónoma de Ceuta (39 %). La brecha de rendimiento entre los estudiantes que
asistieron a escuelas donde “más del 75 %” tenían habilidades básicas de lectoescritura al
comenzar la primaria y los que asistieron a escuelas donde “menos del 25 %” tenían estas
habilidades es superior a 40 puntos en los casos de la Ciudad Autónoma de Ceuta (57
puntos), Cataluña (45 puntos) y Comunidad de Madrid (42 puntos).
Figura 4.11b. Alumnado que ingresa en primaria con habilidades básicas de lectoescritura y
rendimiento en lectura. Comunidades y ciudades autónomas participantes
4.12 Referencias
Banerjee, N., Stearns, E., Moller, S. y Mickelson, R. A. (2017). Teacher job satisfaction and
student achievement: the roles of teacher professional community and teacher
collaboration in schools. American Journal of Education, 123(2), 203-241.
doi:10.1086/689932
Baumeister, R. and Leary, M. (1995). The need to belong: Desire for interpersonal attachments
as a fundamental human motivation. Psychological Bulletin, 117(3), 497-529, https://
psycnet.apa.org/doiLanding?doi=10.1037%2F0033-2909.117.3.497
Cameron, M., y Sheppard, S. M. (2006). School discipline and social work practice: application
of research and theory to intervention. Children & Schools, 28(1), 15-22
Dicke, T., Marsh, H. W., Parker, P. D., Guo, J., Riley, P. y Waldeyer, J. (2020). Job satisfaction of
teachers and their principals in relation to climate and student achievement. Journal
of Educational Psychology, 112(5), 1061-1073. doi:10.1037/edu0000409
Dotterer, A., McHale, S. and Crouter A. (2007). Implications of out-of-school activities for
school engagement in African American adolescents. Journal of Youth and
Adolescence, 36(4), 391-401, https://link.springer.com/article/10.1007/s10964-006-
9161-3
Duncan, G., Chantelle, J. D., Claessens, A., Magnuson, K., Huston, A.C., Klebanov, P., ... y
Japel, C. (2007). School readiness and later achievement. Developmental Psychology,
43, 1428–1446
Edwards, H. C. (2007). Classroom discipline and management. (Fifth Edition). USA: JohnWiley
& Sons, Inc Garman, J.J. y Walker, R. (2010). The zero-tolerance discipline plan due
process: elements of a model resolving conflicts between discipline and fairness.
Falkner Law Review, 1(3), 289-320
Fleetwood, C. y Shelley, K. (2000). The outlook for college graduates, 1998-2008: A balancing
act. Occupational Outlook Quarterly. Fall, 3-9
Foncha, J.W., Ngoqo, V.M., Mafumo, T.N. y Maruma, M.W. (2017). The relationship between
discipline and academic performance: towards building sustainable teaching and
learning behaviours in schools. Gender & Behaviour, 15(2), 9046–9053
Goddard, R. D. (Ed.). (2002). Collective efficacy and school organization: A multilevel analysis
of teacher influence in schools (Vol. 1). Greenwich: CT: Information Age Publishing
Goodenow, C. and Grady, K. (1993). The relationship of school belonging and friends’ values
to academic motivation among urban adolescent students. The Journal of
Experimental Education, 62(1), 60-71, https://psycnet.apa.org/record/1994-35250-001
Gustafsson, J. E. y Nilsen, T. (2016). The impact of school climate and teacher quality on
mathematics achievement: A difference-in-differences approach. En T. Nilsen y J. E.
Gustafsson (Eds.). Teacher quality, instructional quality and student outcomes (pp. 81-
95). IEA Research for Education (A Series of In-depth Analyses Based on Data of the
International Association for the Evaluation of Educational Achievement (IEA)). Cham:
Springer
Kim, I. y Loadman, W. E. (1994). Predicting teacher job satisfaction. Washington: ERIC. Institute
of Education Sciences.US Department of Education
Kutsyuruba, B., Klinger, D. A. y Hussain, A. (2015). Relationships among school climate, school
safety, and student achievement and well-being: a review of the literature. Review of
Education, 3, 2, 103-135
Ma, X. (2003). Sense of belonging to school: Can schools make a difference? The Journal of
Educational Research, 96(6), 340-349, https://www.tandfonline.com/doi/
abs/10.1080/00220670309596617
Milam, A., Furr-Holden, C. D. y Leaf, P. J. (2010). Perceived School and Neighborhood Safety,
Neighborhood Violence and Academic Achievement in Urban School Children. The
Urban Review, 42, 458-467
Missall, K., Mercer, S., Martínez, R. y Casebeer, D. (2012). Concurrent and longitudinal patterns
and trends in performance on early numeracy curriculum-based measures in
kindergarten through third grade. Assessment for Effective Intervention, 37, 95–106
Morgan, P., Farkas, G. y Wu, Q. (2011). Kindergarten children’s growth trajectories in reading
and mathematics: Who falls increasingly behind? Journal of Learning Disabilities, 44,
472–488
Nicoletti, C. y Rabe, B. (2012). The effect of school resources on test scores in England.
Discussion Papers 12/19, Department of Economics, University of York
OECD. (2013). Education at a Glance 2013: OECD Indicators, Paris: OECD Publishing. https://
www.oecd-ilibrary.org/education/education-at-a-glance-2013_eag-2013-en
OECD. (2016). PISA 2015 Results (Volume II): Policies and Practices for Successful Schools,
PISA, Paris: OECD Publishing. https://www.oecd-ilibrary.org/education/pisa-2015-
results-volume-ii_9789264267510-en
OECD (2017), PISA 2015 Results (Volume III): Students’ Well-Being, PISA, OECD Publishing,
Paris,https://www.oecd-ilibrary.org/education/pisa-2015-results-volume-
iii_9789264273856-en
OECD. (2019). PISA 2018 Results (Volume III): What school life means for students’ lives, PISA,
Paris: OECD Publishing. https://www.oecd-ilibrary.org/education/pisa-2018-results-
volume-iii_acd78851-en
Rentner D. y Kober, N. (2001). Higher learning-higher earnings: What you need to know about
college and careers. American Youth Policy Forum. Washington, D.C: Center on
Slaten, C., Ferguson, J., Allen, K.A., & Vella-Brodrick, D. (2016). School belonging: A review of
the history, current trends, and future directions. The Educational and Developmental
Psychologist, 33(1), 1-15. https://www.researchgate.net/publication/304358355_
School_Belonging_A_Review_of_the_History_Current_Trends_and_Future_
Directions
Watts, T., Duncan, G., Siegler, R. y Davis-Kean, P. (2014). What’s past is prologue: Relations
between early mathematics knowledge and high school achievement. Educational
Researcher, 43, 352–360
Wey, Y., Rodney, A.C. y Roberts, L.W. (2012). School Resources and the Academic Achievement
of Canadian Students. Alberta Journal of Educational Researcher, 57(4), 460-478
| 177
ANEXO Textos liberados
Guía de codificación
Preguntas de elección múltiple:
Pregunta 1 3 5 6 7 8 11 12 13 14 15
Respuesta B A A C B D A C C D B
1 – Respuesta aceptable
La respuesta dice que el emperador dio a cada niño una semilla.
Ejemplos:
- una semilla
- una semilla hervida
- una semilla real
O BIEN la respuesta reconoce lo que la semilla dada por el emperador representó para cada
niño.
Ejemplos:
- la posibilidad de convertirse en emperador
- una preciosa posibilidad
0 – Respuesta inaceptable
La respuesta no indica con exactitud lo que el emperador dio a cada niño.
Ejemplos:
- una maceta
- una planta
- una flor
- un concurso
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
1 – Respuesta aceptable
La respuesta identifica una prueba de la historia que demuestra que Jun era el mejor jardinero.
Puede referirse a la calidad o cantidad de sus verduras/plantas/jardín o al amor de sus vecinos
por sus verduras/plantas/jardín.
Ejemplos:
- Cultivaba las mejores plantas.
- Cultivaba muchas verduras.
- Había muchas plantas en su jardín.
- A sus vecinos les gustaba compartir sus verduras.
- Sus vecinos compartían sus verduras. [Tenga en cuenta que esta respuesta implica el
amor de los vecinos de Jun por sus verduras.]
0 – Respuesta inaceptable
La respuesta no aporta pruebas textuales que apoyen que Jun sea considerado el mejor
jardinero. La respuesta puede mencionar las hortalizas concretas que cultivó Jun, puede dar
un detalle sobre cómo cuida sus plantas, puede referirse solo a la foto del huerto de Jun,
puede referirse a las propias creencias de Jun sobre su éxito o puede referirse al resultado
del concurso.
Ejemplos:
- Cultivaba coles.
- Sabía mucho de plantas.
- Riega su planta.
- Llevó cuidadosamente la semilla a casa.
- Compartió sus verduras. [Tenga en cuenta que esta respuesta no indica que a sus
vecinos les guste compartir sus verduras, ni tampoco la calidad de estas.]
- Nadie sabía cultivar plantas tan bien como él. [Tenga en cuenta que esta respuesta se
refiere a las propias creencias de Jun sobre su éxito.]
- Todos lo compartían todo. [Tenga en cuenta que esta respuesta es demasiado vaga.]
- Ganó el concurso.
O BIEN la respuesta proporciona una respuesta circular que repite la idea de que Jun era
considerado el mejor jardinero.
Ejemplos:
- La gente de su pueblo pensaba que era el mejor.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
9. ¿Por qué se reían los otros niños de Jun? Utiliza lo que ocurre en el cuento
para explicar tu respuesta.
Propósito: tener una experiencia literaria
Proceso: interpretar e integrar las ideas y la información
2 – Comprensión total
La respuesta demuestra la comprensión de por qué los niños se reían de Jun identificando la
situación de Jun (su semilla no creció) en contraste con los otros niños (sus semillas crecieron)
o en contraste con sus propios talentos (era el mejor jardinero).
Ejemplos:
- Su semilla no creció, mientras que las de ellos sí.
- La suya fue la única semilla que no creció.
- Su semilla no creció a pesar de ser el mejor jardinero.
- Los niños se reían de él porque su semilla no crecía aunque la cuidara bien.
1 – Comprensión parcial
La respuesta identifica la situación de Jun en la historia (su semilla no creció) o explica el éxito
de los demás niños, pero no ofrece un contraste para explicar por qué los otros niños se
rieron.
Ejemplos:
- Su maceta estaba vacía.
- La maceta de Jun no tenía planta.
- Su semilla no creció.
- No ganaría la competición.
- Sus semillas crecieron.
- Estaba triste y derrotado. [Tenga en cuenta que esta es una descripción general de la
situación de Jun.]
0 – Comprensión nula
La respuesta no proporciona una descripción adecuada de por qué se reían de él o se refiere
a detalles del punto equivocado de la historia.
Ejemplos:
- Jun era el mejor jardinero.
- Eran malos.
- Pensaban que era divertido.
- No les gustaba su maceta.
- Cuando vieron su maceta en el palacio, se dieron cuenta de que su planta no había
crecido.
9. ¿Por qué se reían los otros niños de Jun? Utiliza lo que ocurre en el cuento para
explicar tu respuesta. (CONTINUACIÓN)
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
10. ¿Por qué crees que los padres de Jun le dijeron que llevara la maceta vacía al
palacio?
Propósito: tener una experiencia literaria
Proceso: interpretar e integrar las ideas y la información
1 – Respuesta aceptable
La respuesta demuestra la comprensión de que los padres de Jun querían que fuera honesto
y se responsabilizara de su trabajo, o que se sintiera orgulloso por hacerlo lo mejor posible.
Ejemplos:
- Pensaron que no debía avergonzarse después de intentar hacerlo lo mejor posible.
- Lo hizo lo mejor que pudo.
- Querían que fuera honesto.
- Lo intentó.
0 – Respuesta inaceptable
La respuesta no demuestra la comprensión de por qué los padres de Jun pensaron que debía
llevar su maceta vacía al palacio. La respuesta puede referirse a los sentimientos de Jun o al
final de la historia. No hay nada en el texto que permita inferir que los padres de Jun sabían
que las semillas estaban hervidas o que conocían de antemano el resultado del concurso.
Ejemplos:
- Estaban avergonzados.
- Para saber qué hizo mal.
- Quería ser honrado. [Tenga en cuenta que esto se refiere a los sentimientos de Jun, no a
los de sus padres.]
1 – Respuesta aceptable
La respuesta demuestra la comprensión de que Jun ganó el concurso/se convirtió en
emperador.
Ejemplos:
- Jun se convirtió en emperador.
- Jun ganó el concurso.
O BIEN la respuesta demuestra la comprensión de que el Emperador reconoció la honradez
de Jun.
Ejemplos:
- Jun fue el único honrado.
- Jun fue el único que no reemplazó su semilla.
- Jun no hizo trampa.
- Hizo lo que debía hacer.
O BIEN la respuesta demuestra la comprensión de que el emperador reconoció que su plan
para encontrar una persona adecuada para ser su heredera había funcionado.
Ejemplos:
- El plan del emperador había funcionado.
0 – Respuesta inaceptable
La respuesta no proporciona una razón plausible, basada en el texto, para la reacción del
emperador. La respuesta repite palabras de la pregunta o proporciona una vaga descripción
de por qué el emperador reaccionó ante Jun con una sonrisa. Tenga en cuenta que las
respuestas que describen lo que hizo el emperador para iniciar su plan (dar semillas hervidas a
los niños) se consideran incorrectas.
Ejemplos:
- Estaba contento.
- El emperador estaba orgulloso de él. [Tenga en cuenta que esta es una vaga descripción
de por qué el emperador sonrió a Jun.]
- Se reía de él.
- El emperador lo engañó.
- Jun se esforzó al máximo.
- La semilla había sido hervida.
- El emperador sabía que las semillas estaban hervidas.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
17. Jun se sintió de distintas formas a lo largo del cuento. Utiliza lo que has
leído para explicar en cada caso por qué Jun se sintió de estas formas:
Propósito: tener una experiencia literaria
Proceso: interpretar e integrar las ideas y la información
Esperanzado
_________________________________________________
_________________________________________________
Extrañado
_________________________________________________
_________________________________________________
Derrotado
_________________________________________________
_________________________________________________
17. Jun se sintió de distintas formas a lo largo del cuento. Utiliza lo que has
leído para explicar en cada caso por qué Jun se sintió de estas formas:
(CONTINUACIÓN)
EXTRAÑADO RE31M17B/RP31M17B
1 – Respuesta aceptable
Extrañado: La respuesta demuestra la comprensión de que, a pesar de su cuidado y habilidad
como jardinero, Jun estaba desconcertado porque su planta no crecía (y las de los demás, sí).
Ejemplos:
- No sabía por qué las plantas de los demás crecían y la suya no.
- Era el mejor, pero su semilla no germinó.
- Su semilla no creció.
0 – Respuesta inaceptable
La respuesta no proporciona una explicación adecuada para el sentimiento.
Ejemplos:
- No quería llevar su maceta vacía al emperador.
- Los otros niños no sabían cultivar plantas tan bien como él.
O BIEN la respuesta ofrece una definición general de la palabra sin apoyo textual.
Ejemplos:
- Estaba confundido.
DERROTADO RE31M17C/RP31M17C
1 – Respuesta aceptable
Derrotado: La respuesta demuestra la comprensión de que Jun se sintió derrotado cuando
se dio cuenta de que, a pesar de sus esfuerzos, su planta no crecía, por lo que tendría una
maceta vacía y ninguna posibilidad de ganar.
Ejemplos:
- Su planta fue la única que no creció.
- Tuvo que llevar una maceta vacía al emperador.
- No ganaría.
- Su maceta estaba vacía.
- Su planta no creció.
- Los otros niños tenían plantas.
0 – Respuesta inaceptable
La respuesta no proporciona una explicación adecuada para el sentimiento.
Ejemplos:
- Los niños se rieron de él.
- Su planta estaba muerta.
O BIEN la respuesta ofrece una definición general de la palabra sin apoyo del texto.
Ejemplos:
- Perdió.
17. Jun se sintió de distintas formas a lo largo del cuento. Utiliza lo que has leído
para explicar en cada caso por qué Jun se sintió de estas formas:
(CONTINUACIÓN)
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
ÍTEMS LIBERADOS
Guía de codificación
Preguntas de elección múltiple:
Pregunta 1 2 4 5 6 7 8 11
Respuesta B D B B A B C B
1 – Respuesta aceptable
La respuesta demuestra la comprensión de que Paja Brillante era invisible para los patos que
cazaba. Hace referencia a que estaba escondida porque estaba tendida en el suelo o a que
estaba camuflada porque su pelaje era del mismo color que la hierba.
Ejemplos:
- Se agachó muy quieta y se escondió entre la hierba para que nadie la viera.
- Estaba camuflada.
- Su pelaje era amarillo como la hierba para poder esconderse.
- Porque podía acercarse sigilosamente a ellos sin ser vista.
0 – Respuesta inaceptable
La respuesta no demuestra la comprensión de que Paja Brillante era invisible para los patos.
Proporciona una simple reformulación de la cita o una simple descripción de su color o
postura. O BIEN aporta una razón por la cual Paja Brillante estaba cazando.
Ejemplos:
- Estaba tumbada como un gato.
- Su pelaje era amarillo como la hierba.
- Se quedó muy quieta.
- Estaba buscando una presa.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
9. ¿Qué dos cosas hizo Lobo Azul para ayudar a escapar a Paja Brillante?
2 – Comprensión total
La respuesta proporciona dos acciones de Lobo Azul que ayudaron a Paja Brillante a escapar
de la red de los cazadores. Consulte la lista siguiente para conocer las acciones aceptables.
1 – Comprensión parcial
La respuesta proporciona una acción de Lobo Azul que ayudó a Paja Brillante a escapar de la
red de los cazadores como se indica a continuación.
0 – Comprensión nula
La respuesta no proporciona acciones precisas o apropiadas sobre cómo Lobo Azul ayudó a
huir a Paja Brillante.
Ejemplos:
- Fue tras ella.
- Fue al campamento.
- Se aseguró de que nadie corriera tras ella.
- Salvó la vida de Paja Brillante.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
10. ¿Por qué dijo Paja Brillante: “Lo siento, Lobo Azul”?
1 – Respuesta aceptable
La respuesta demuestra la comprensión del arrepentimiento que sintió Paja Brillante por haber
huido para ver a los cazadores y haber puesto en peligro a Lobo Azul.
Ejemplos:
- Se acercó a los cazadores/humanos y la atraparon.
- Lamentó haberse ido sin avisar a nadie.
- Lo puso en peligro con los cazadores.
- Lamentó haber salido corriendo y haberle dejado.
- Lamentó haber salido corriendo como él dijo.
0 – Respuesta inaceptable
La respuesta ofrece una interpretación vaga o inexacta de la disculpa de Paja Brillante.
Ejemplos:
- No se tomaba nada en serio.
- No le escuchó.
- Se rió.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
12. De las siguientes palabras, elige una que, en tu opinión, describe a Paja Brillante.
____Insensata
____Curiosa
____Valiente
2 – Comprensión total
La respuesta demuestra la comprensión del descriptor de Paja Brillante elegido al establecer
una conexión entre la palabra y un acontecimiento de la historia. Consulte la lista siguiente para
conocer las explicaciones adecuadas para cada una de las palabras.
NOTA PARA LOS EVALUADORES: Los estudiantes pueden proporcionar una paráfrasis
razonable de estas ideas. La justificación del estudiante debe dejar claro cuál de las
descripciones está tratando de respaldar.
1 – Comprensión parcial
La respuesta ofrece una descripción que generalmente se relaciona con los acontecimientos
de la historia o demuestra la comprensión del descriptor en el contexto de la historia.
12. De las siguientes palabras, elige una que, en tu opinión, describe a Paja Brillante.
____Insensata
____Curiosa
____Valiente
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
13. Sabes cómo era Lobo Azul por lo que hizo y dijo. Describe cómo era Lobo Azul y pon dos
ejemplos de lo que hizo o dijo que lo demuestren.
3 – Comprensión exhaustiva
La respuesta proporciona al menos una descripción de cómo es Lobo Azul (por ejemplo,
valiente, serio, cuidadoso, cauto, inteligente, audaz, bueno, agradable, reflexivo, realista) con
dos cosas que dijo o hizo en la historia que ilustran su carácter.
Ejemplos:
- Es valiente porque fue a buscar a Paja Brillante cuando se dio cuenta de que había
desaparecido y saltó sobre el fuego para salvarla.
- Lobo Azul es cariñoso y serio. Cariñoso porque no dejó que los cazadores mataran a
Paja Brillante. Serio porque no se ríe ni se divierte.
- Es valiente por haberla rescatado y fue a rescatarla él solo. [Tenga en cuenta que
rescatar a Paja Brillante y rescatarla él solo deben expresarse como dos ideas separadas
para que se puntúen como dos ideas separadas.]
2 – Comprensión satisfactoria
La respuesta proporciona al menos una descripción y la respalda en una sola cosa que dijo o
hizo.
Ejemplos:
- Es bueno porque arriesga su vida para ayudar a escapar a Paja Brillante.
- Reflexivo. Le dijo a Paja Brillante que corriera a cuidar de su familia.
- Valiente. Fue solo a rescatar a Paja Brillante.
1 – Comprensión mínima
La respuesta proporciona al menos una descripción sin un ejemplo. O BIEN la respuesta
proporciona una o más cosas que dijo o hizo que ilustran un rasgo de carácter sin una
descripción.
Ejemplos:
- Lobo Azul es audaz y amable.
- Es un buen hermano.
- Se pone en peligro para que Paja Brillante pueda quedar libre.
- Lobo Azul mordió la red. Le dijo a Paja Brillante que corriera a cuidar de su familia.
O BIEN la respuesta proporciona un descriptor con una descripción que refleja una deducción
inexacta sobre el carácter de Lobo Azul.
- Lobo Azul era curioso. Le preguntó a Paja Brillante por qué no se tomaba las cosas en
serio.
13. Sabes cómo era Lobo Azul por lo que hizo y dijo. Describe cómo era Lobo Azul
y pon dos ejemplos de lo que hizo o dijo que lo demuestren. (CONTINUACIÓN)
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
14. ¿Habría sido mejor titular la historia Lobo Azul que Paja Brillante?
____ Sí
____ No
2 – Comprensión total
La respuesta proporciona una evaluación y demuestra la comprensión del significado de Lobo
Azul o de Paja Brillante para la historia. Proporciona una acción de cualquiera de los persona-
jes que sea central en la historia o identifica el papel central de cualquiera de los personajes.
Ejemplos de papel central:
- Sí, es el héroe de la historia.
- No, porque se trata sobre todo de Paja Brillante. Lobo Azul solo hace
mucho al final.
- No, porque ella es la protagonista.
Ejemplos de acción central:
- Sí, porque lo más importante es que Lobo Azul rescató a Paja Brillante.
- No, porque Paja Brillante es quien causa los problemas al ir a ver a los humanos.
1 – Comprensión parcial
La respuesta proporciona una evaluación, pero no demuestra la comprensión del significado
del personaje.
14. ¿Habría sido mejor titular la historia Lobo Azul que Paja Brillante?
____ Sí
____ No
0 – Comprensión nula
La respuesta puede proporcionar o no una evaluación personal, pero no aporta información
exacta o apropiada sobre el texto.
Ejemplos:
- Se trata de Paja Brillante.
- Solo se trata de Paja Brillante. [Tenga en cuenta que esto es inexacto.]
- Paja Brillante suena mejor.
- Lobo Azul/Paja Brillante era un lobo mejor.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
ÍTEMS LIBERADOS
Guía de codificación
Preguntas de elección múltiple:
Pregunta 3 4 8 13
Respuesta A C B C
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
2. ¿Qué usan los pulpos para hacer puertas para sus guaridas?
1 – Respuesta aceptable
La respuesta demuestra la comprensión de que los pulpos utilizan piedras como puertas.
Ejemplos:
- Utilizan piedras.
- piedras
0 – Respuesta inaceptable
La respuesta no afirma que los pulpos utilicen piedras. Puede ser una respuesta vaga, sin relación con
el texto o repetir palabras de la pregunta.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
1 – Respuesta aceptable
La respuesta ofrece uno de los siguientes ejemplos del texto:
• equipo de los científicos
• botellas
• conchas
Ejemplos:
- Pueden estar en botellas.
- En el equipo de los científicos
- Conchas
0 – Respuesta inaceptable
La respuesta no da un ejemplo del texto. Puede ser una respuesta vaga, sin relación con el texto o
repetir palabras de la pregunta.
Ejemplos:
- Aparecen en lugares extraños.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
6. Indica dos maneras en las que los pulpos escapan de sus depredadores.
2 – Comprensión total
La respuesta demuestra la comprensión de cómo los pulpos escapan de sus depredadores
proporcionando dos de las siguientes maneras:
• se esconden en guaridas/cuevas
• se esconden entre las grietas/piedras/corales/lugares pequeños
• conchas/se esconden detrás de las conchas
• se esconden [solo si no se especifica otro ejemplo de cómo se esconden]
• nadadores rápidos/nadar
• disparan tinta
• cambian de color para camuflarse/ser invisibles/parecer otra cosa
• producen manchas/rayas (para no parecer comestibles)
• camuflaje/disfraz
• hacen “puertas” de piedra para sus guaridas
1 – Comprensión parcial
La respuesta proporciona una manera de la lista anterior.
0 – Comprensión insatisfactoria
La respuesta no identifica ninguna manera de la lista anterior. Puede ser una respuesta vaga,
sin relación con el texto o repetir palabras de la pregunta.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
1 – Respuesta aceptable
La respuesta demuestra la comprensión de que Frieda aprendió a abrir sus botes de comida.
Ejemplos:
- Abrir botes
- Frieda aprendió a abrir botes de pescado, cangrejos y gambas.
- Aprendió a abrir botes de comida.
- Aprendió a abrir los botes de comida sin ayuda.
- Girar el bote para abrirlo sin ayuda.
- Frieda aprendió a girar la tapa de los botes.
0 – Respuesta inaceptable
La respuesta no demuestra la comprensión de que Frieda aprendió a abrir sus botes de
comida. Puede ser una respuesta vaga, sin relación con el texto o repetir palabras de la
pregunta.
Elige tu respuesta.
____ Sí
____ No
1 – Respuesta aceptable
La respuesta proporciona una evaluación y una explicación basadas en la respuesta elegida.
• Sí, apoyado por la idea de que el autor dice que hay quien paga dinero para comprar las obras de
arte de Squirt.
Ejemplos:
- Sí, Creo que sí es la respuesta correcta porque vendieron los cuadros y obtuvieron dinero
de ello.
- Sí. El hecho de que pueda parecer extraño no significa que no sea un arte hermoso. Es
abstracto y especial, ¡y está hecho por un pulpo! Cree que vale tanto como para
venderlo.
• No, apoyado por el hecho de que el autor puso comillas a la palabra “arte”.
Ejemplos:
- No. Al autor no le gusta su arte porque puso entre comillas la palabra “arte”.
- No. Porque el autor puso el arte entre comillas. El texto dice que “lo hacía moviendo
palancas que disparaban la pintura en un lienzo. El “arte”...”.
0 – Respuesta inaceptable
La respuesta puede ser vaga, sin relación con el texto o repetir palabras de la pregunta.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
1 – Respuesta aceptable
La respuesta explica que los pulpos se aburren, así que el personal del acuario les da
rompecabezas para mantenerlos ocupados.
Ejemplos:
- Quieren que estén ocupados.
- Para mantenerlos ocupados.
- Para mantenerlos entretenidos.
- Se aburren mucho.
- Para que los pulpos tengan algo que hacer.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
1 – Respuesta aceptable
La respuesta dice pelota o pelota de plástico.
0 – Respuesta inaceptable
La respuesta indica otro objeto. Puede ser una respuesta vaga, sin relación con el texto o repetir
palabras de la pregunta.
Ejemplos:
- Juguete
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
12. ¿Qué dos cosas hacen los pulpos para demostrar que están contentos al ver a sus
cuidadores?
2 – Comprensión total
La respuesta proporciona dos de las siguientes cosas que hacen los pulpos:
• Se ponen rojos para demostrar que están encantados cuando ven que sus cuidadores se acercan.
Ejemplos:
- Se vuelven rojos.
- Cambian de color.
• Se ponen de pie sobre sus tentáculos para saludar a sus cuidadores.
Ejemplos:
- Se ponen de pie y se inclinan hacia delante.
- Se ponen de pie sobre sus manos y mueven las piernas.
- Se incorporan sobre sus brazos y los saludan.
- Se inclinan hacia delante y usan sus tentáculos para ponerse de pie.
• Saltan sobre sus piernas/brazos traseros y agitan los brazos para llamar la atención de sus
cuidadores.
Ejemplos:
- Mueven las manos en el aire.
- Saltan sobre las dos piernas traseras.
• Giran sus tentáculos alrededor de las manos y brazos de sus cuidadores/se aferran a sus
cuidadores.
Ejemplos:
- Se aferran a ellos.
- Sostienen la mano de su cuidador.
- Abren los tentáculos para un abrazo.
- Sosteniendo los brazos de su cuidador suavemente con sus ventosas.
1 – Comprensión parcial
La respuesta proporciona una respuesta de la lista anterior.
12. ¿Qué dos cosas hacen los pulpos para demostrar que están contentos al ver a sus
cuidadores? (CONTINUACIÓN)
0 – Comprensión nula
La respuesta no proporciona nada que los pulpos hagan para mostrar que están felices de ver
a sus cuidadores. Puede ser una respuesta vaga, sin relación con el texto o repetir palabras de
la pregunta.
Ejemplos:
- Los saludan.
- Acariciar sus cabezas [los cuidadores acarician las cabezas de los pulpos]
- Tocar
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
14. El autor piensa que los pulpos son “fascinantes”. Indica tres ejemplos de cosas
que los pulpos de los acuarios han aprendido a hacer que son fascinantes.
3 – Comprensión exhaustiva
La respuesta da tres de los siguientes ejemplos para justificar la opinión del autor de que los
pulpos son fascinantes. Los ejemplos deben ser cosas que los pulpos han aprendido a hacer
en los acuarios. Las características innatas de todos los pulpos, como la capacidad de
camuflarse o pasar por lugares pequeños, son incorrectas.
• Resolver rompecabezas
• Abrir botes
• Pintar/arte
• Jugar
• Desmontar una pelota y volverla a montar
• Reconocer a sus cuidadores/saludar a sus cuidadores/hacer cosas para llamar la atención de sus
cuidadores
Ejemplos relacionados con reconocer a sus cuidadores:
- Reconocer a sus cuidadores
- Interactuar con la gente
- Estirarse para tocar a sus dueños
- Ponerse de pie sobre sus manos y mover las piernas
- Ponerse de pie sobre dos tentáculos
- Agitar los brazos
- Mostrar afecto
2 – Comprensión satisfactoria
La respuesta ofrece dos ejemplos de la lista anterior.
1 – Comprensión mínima
La respuesta ofrece un ejemplo de la lista anterior.
14. El autor piensa que los pulpos son “fascinantes”. Indica tres ejemplos de cosas
que los pulpos de los acuarios han aprendido a hacer que son fascinantes.
(CONTINUACIÓN)
0 – Comprensión insatisfactoria
La respuesta no ofrece ningún ejemplo de la lista anterior. Puede ser una respuesta vaga, sin
relación con el texto o repetir palabras de la pregunta.
Ejemplos: (cosas que los pulpos pueden hacer, pero que no aprendieron en los acuarios):
- Pasar por huecos pequeños
- Entrar en espacios pequeños
- Esconderse muy bien
- Cambiar de color
- Hacer puertas de piedra
- Disfrazarse/camuflarse/volverse invisibles
- Camuflarse con las piedras
- Nadar rápido
- Disparar tinta
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
15. Según lo que has leído en el artículo, ¿los acuarios son buenos para los pulpos?
Elige tu respuesta.
____ Sí
____ No
1 – Respuesta aceptable
La respuesta proporciona una evaluación y una explicación basadas en su elección de respuesta.
15. Según lo que has leído en el artículo, ¿los acuarios son buenos para los pulpos?
Elige tu respuesta.
____ Sí
____ No
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
ÍTEMS LIBERADOS
Guía de codificación
Preguntas de elección múltiple:
Pregunta 3 4 6 8 9 11
Respuesta C D B D B B
1. Indica dos cosas que se dicen al principio del texto sobre los dientes del tiburón.
2 – Comprensión total
La respuesta aporta dos datos sobre los dientes del tiburón que aparecen en el principio del
pasaje. Consulte la lista siguiente para conocer las respuestas adecuadas.
NOTA PARA LOS EVALUADORES: Ambas respuestas correctas pueden expresarse en la
misma frase.
1 – Comprensión parcial
La respuesta aporta un solo dato de la lista siguiente.
0 – Comprensión nula
La respuesta no aporta ningún dato sobre los dientes del tiburón que aparezca en el principio del
pasaje. O BIEN la respuesta incluye datos inexactos o sin relación con los dientes.
Ejemplos:
- El gran tiburón blanco tiene 50 dientes.
- Mucha gente piensa en mandíbulas y dientes cuando piensa en tiburones.
- El tiburón tigre come todo lo que puede tragar.
- Algunos tiburones/grandes tiburones blancos tienen 50 dientes.
- Los dientes de algunos tiburones/grandes tiburones blancos miden unos 6 cm.
- Los tiburones tienen las mandíbulas muy fuertes.
1. Indica dos cosas que se dicen al principio del texto sobre los dientes del tiburón.
(CONTINUACIÓN)
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
1 – Respuesta aceptable
La respuesta proporciona tres animales cualesquiera de los proporcionados en la lista
siguiente.
0 – Respuesta inaceptable
La respuesta proporciona uno o dos animales correctos de la lista siguiente y también puede
incluir respuestas incorrectas (por ejemplo, seres humanos, plantas y basura) o respuestas
vagas (por ejemplo, animales de la costa/del mar).
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
1 – Respuesta aceptable
La respuesta identifica la superficie de espejo del ojo del tiburón.
Ejemplos:
- La parte posterior del ojo tiene una superficie brillante.
- El ojo tiene una superficie de espejo.
O BIEN la respuesta describe con precisión el proceso de la luz que se refleja (o rebota) en la
superficie de espejo.
Ejemplos:
- La superficie brillante (de espejo) del ojo refleja la luz a través del ojo.
- La luz se refleja en el (fondo del) ojo.
- La luz rebota en la superficie.
0 – Respuesta inaceptable
La respuesta no proporciona una descripción precisa o adecuada de la superficie del ojo o del
proceso de reflexión de la luz en él.
Ejemplos:
- La luz se refleja en sus ojos desde el agua.
- La luz rebota en la superficie del agua.
- Para ayudarles a ver/ser vistos mejor.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
7. ¿En qué se diferencian los sentidos del tacto y del oído de un tiburón del tacto y
del oído humanos? Explica una característica de cada sentido.
Oído:
- Los tiburones pueden oír a un pez a casi un kilómetro de distancia.
- Los tiburones pueden oír más lejos que los humanos.
- Tienen 2 oídos internos.
- Son sensibles a los sonidos de baja frecuencia.
7. ¿En qué se diferencian los sentidos del tacto y del oído de un tiburón del tacto y
del oído humanos? Explica una característica de cada sentido. (CONTINUACIÓN)
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
10. Un tiburón hambriento está buscando focas para comer. ¿En qué orden utilizaría
sus sentidos del gusto, la vista y el olfato?
Explica por qué utilizaría los sentidos en ese orden, con la información del
artículo.
2 – Comprensión total
La respuesta indica el orden correcto: olfato, vista, gusto. Para al menos uno de estos sentidos,
proporciona información precisa del artículo para respaldar el orden o ilustrar la forma en que
el sentido funcionaría en la situación descrita.
Ejemplos:
- El olfato es el primer sentido que alerta al tiburón sobre su presa. Después la vista,
porque los ojos del tiburón pueden ver con poca luz. El último es el gusto, porque tiene
unas papilas gustativas sensibles en la boca.
- Lo olería primero porque los tiburones son como narices nadadoras. A continuación lo
vería y luego daría un mordisco de prueba para probarlo.
- El olfato y luego la vista. El gusto es lo último porque hay que estar cerca para probar un
bocado.
1 – Comprensión parcial
La respuesta indica el orden correcto para los tres sentidos, pero no ofrece ninguna
información de apoyo.
Ejemplos:
- Olfato, vista, gusto
O BIEN la respuesta menciona solo dos de los sentidos en cuestión, en el orden correcto para
esos dos y con información de apoyo para al menos un sentido.
Ejemplos:
- La vista, porque los ojos de un tiburón pueden ver bajo el agua. Una vez que sabe dónde
está la foca, puede probarla.
- El oído y la vista porque los ojos del tiburón están bien adaptados a este mundo
submarino. Después el gusto, porque los tiburones tienen unas papilas gustativas
sensibles. [Tenga en cuenta que el oído no es uno de los sentidos dados.]
- El olfato primero porque la mitad de su cerebro está dedicada al olfato. El gusto es el
último.
- El olfato es el primer sentido que alerta a un tiburón sobre su presa. Entonces lo vería.
10. Un tiburón hambriento está buscando focas para comer. ¿En qué orden utilizaría
sus sentidos del gusto, la vista y el olfato?
Explica por qué utilizaría los sentidos en ese orden, con la información del
artículo. (CONTINUACIÓN)
Información precisa del artículo para respaldar el orden o ilustrar la forma en que el sentido
funcionaría en la situación descrita
Cita o paráfrasis/resumen de lo siguiente:
Olfato:
- El olfato es el primer sentido que alerta a un tiburón de su presa.
- Los tiburones son como narices nadadoras.
- Un tiburón puede detectar pequeñas cantidades de sangre en el agua.
- La mitad del cerebro de un tiburón está dedicada al olfato.
Vista:
- Los ojos del tiburón están bien adaptados al mundo submarino.
- Los tiburones tienen una superficie de espejo en el fondo de los ojos que refleja la luz a
través del ojo.
- Los tiburones pueden ver con poca luz.
Gusto:
- A menudo, antes de que un tiburón se coma algo, le dará un “mordisco de prueba”.
- Las sensibles papilas gustativas agrupadas en la boca analizan la posible comida.
10. Un tiburón hambriento está buscando focas para comer. ¿En qué orden utilizaría
sus sentidos del gusto, la vista y el olfato?
Explica por qué utilizaría los sentidos en ese orden, con la información del artículo.
(CONTINUACIÓN)
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
12. La siguiente tabla organiza información del artículo sobre los diferentes tipos de
tiburones. Rellena los espacios en blanco para completar la tabla.
Tipo de tiburón Longitud Alimentos Característica especial
3 – Comprensión exhaustiva
La respuesta completa correctamente los 6 espacios. Consulte el texto en negrita de la tabla
de la página siguiente para conocer las respuestas aceptables y las no aceptables para cada
espacio en blanco.
NOTA PARA LOS EVALUADORES: La respuesta debe incluir las unidades para ser puntuada.
2 – Comprensión satisfactoria
La respuesta completa correctamente 5 de los 6 espacios.
1 – Comprensión mínima
La respuesta completa correctamente 3 o 4 de los 6 espacios.
0 – Comprensión insatisfactoria
La respuesta completa correctamente 2 o menos de los 6 espacios.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control
del estudiante.
9 En blanco
18 metros Plancton
Krill
Pequeños
animales
flotantes
Plantas
tiburones. Rellena los espacios en blanco para completar la tabla.
NO SE ACEPTAN:
Peces
Tiburón Peces y otros Ojos, fosas nasales y electrorreceptores en el borde de la “cabeza de martillo”
martillo 1-6 tiburones Nada solo
metros Balancea la cabeza de un lado a otro
Cabeza (de martillo) /morro ancho y aplanado
Aspecto inusual/raro/extraño
NO SE ACEPTA:
El tiburón más pequeño
Tiburón Leones marinos y Los dientes más grandes (unos 6 cm)
blanco 6 metros focas El más conocido
Cuerpo caliente
(CONTINUACIÓN)
ÍTEMS LIBERADOS
Guía de codificación
Preguntas de elección múltiple:
Pregunta 3 5 6 8 9 10 12
Respuesta C C C B A D A
2 – Comprensión total
La respuesta proporciona elementos plausibles tanto para los borana como para el indicador.
NOTA PARA LOS EVALUADORES: No puntúe las respuestas que incluyan CUALQUIER dato
incorrecto junto con las respuestas correctas.
Respuestas:
- Los borana: miel
- El pájaro indicador: cera (de abejas) /larvas/ (crías de) abejas
1 – Comprensión parcial
La respuesta proporciona una respuesta plausible para los borana o el indicador de los
ejemplos anteriores.
0 – Comprensión nula
La respuesta no proporciona elementos precisos para los borana ni el indicador o es
demasiado vaga.
Respuestas incorrectas:
- Los borana: azúcar, alimentos
- El pájaro indicador: fruta, gusanos, otros insectos, miel, huevos de abeja, alimentos
Ejemplos:
- Los borana: alimentos de la tienda
Indicador: larvas y frutos
- Los borana: azúcar
El pájaro indicador: miel
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
2. ¿Qué hacen los borana y el pájaro indicador para ayudarse el uno al otro?
2 – Comprensión total
La respuesta proporciona una forma en que los borana ayudan al indicador y una forma en
que el indicador ayuda a los borana a partir de la siguiente lista de respuestas aceptables.
Formas en que el indicador y los borana se ayudan mutuamente:
NOTA PARA LOS EVALUADORES: Los estudiantes pueden proporcionar una paráfrasis
razonable de estas ideas. La respuesta debe indicar una acción de cada uno (ser humano y
pájaro) que beneficie claramente al otro.
Formas en que los borana ayudan al pájaro indicador:
- Romper la colmena/ayudar a entrar en la colmena
- Dejar larvas y cera/conseguir comida para ellos
- Ahuyentar a las abejas (encendiendo fuego/creando humo)
Formas en que el pájaro indicador ayuda a los borana:
- Les ayuda a encontrar la colmena/miel/abejas/comida.
- Les muestra dónde está la colmena/vuela en círculos alrededor de la colmena.
- Le dice a los borana: “¡Ey, estamos aquí!” (haciendo un tono suave con largas pausas entre
las notas).
1 – Comprensión parcial
La respuesta proporciona la forma en que los borana ayudan al pájaro indicador o la forma en
que el pájaro indicador ayuda a los borana (véase la lista de respuestas aceptables).
0 – Comprensión nula
La respuesta no proporciona una forma adecuada en que se ayudan mutuamente. La
respuesta puede proporcionar una acción sin indicar la forma en que la acción es útil.
Ejemplos:
- Los borana: ayudar al pájaro indicador a encontrar comida [Tenga en cuenta que el
pájaro indicador es el que encuentra la comida (colmenas). Los borana solo ayudan a
conseguir la comida una vez que se ha localizado la colmena.]
- El pájaro indicador: Ayuda a los borana a conseguir miel
- Los borana: silban.
- El pájaro indicador: hace “tirr-tirr-tirr”.
2. ¿Qué hacen los borana y el pájaro indicador para ayudarse el uno al otro?
(CONTINUACIÓN)
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
4. Escribe dos cosas con las que están hechas las casas de los borana.
1 – Respuesta aceptable
La respuesta identifica las ramas y la hierba como los dos materiales de los que están hechas
las casas de los borana.
NOTA PARA LOS EVALUADORES: Los sustitutos razonables de cualquiera de los dos
materiales se indican en las respuestas aceptables. No puntúe las respuestas que incluyan
CUALQUIER dato incorrecto junto con las respuestas correctas.
Respuestas aceptables:
- Ramas/espigas/palos
- Hierba/paja/heno
0 – Respuesta inaceptable
La respuesta no proporciona las dos respuestas correctas. La respuesta puede repetir
palabras de la pregunta o puede indicar un material inapropiado en lugar de, o además de, las
respuestas correctas.
Ejemplos:
- Miel y barro
- Pieles de ganado y ramas
- Hierba y madera
- Corteza y hojas
- Ramas
- Ramas, corteza, hierba
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
1 – Respuesta aceptable
La respuesta demuestra la comprensión de que, cuando el indicador sobrevuela las copas de los
árboles, indica a los borana la ubicación de la colmena.
0 – Respuesta inaceptable
La respuesta no demuestra la comprensión de lo que significa para los borana el hecho de que el
indicador sobrevuele las copas de los árboles.
Ejemplos:
- La colmena está cerca del suelo.
- Sabe dónde está la colmena.
7. El pájaro indicador manda mensajes a los borana haciendo cosas distintas. Relle-
na los espacios en blanco para completar la tabla. (CONTINUACIÓN)
1 – Respuesta aceptable
La respuesta identifica el comportamiento del indicador, que advierte a los borana de que se están
acercando a la colmena.
0 – Respuesta inaceptable
1 – Respuesta aceptable
La respuesta identifica el comportamiento del indicador, que advierte a los borana de que han llegado
a la colmena.
0 – Respuesta inaceptable
La respuesta no demuestra la comprensión de lo que hace el indicador para advertir a los borana de
que han llegado a la colmena.
Ejemplos:
- Hace un ruido especial.
- tirr-tirr-tirr
- Encuentra la colmena.
- ¡Ey, estamos aquí!
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
11. ¿Qué se ha descubierto que demuestre que los borana y el pájaro indicador
podrían haber trabajado juntos durante miles de años?
1 – Respuesta aceptable
La respuesta identifica las pinturas como prueba de la asociación entre los borana y el
indicador desde hace mucho tiempo.
Ejemplos:
- Pinturas
- Pinturas en rocas
- Pinturas africanas
- Pinturas en cuevas
- Pinturas en paredes
0 – Respuesta inaceptable
La respuesta no proporciona la respuesta correcta. La respuesta puede repetir palabras de la
pregunta.
Ejemplos:
- Tallas de piedra
- Libros
- Miel
- Colmenas
- Imágenes
- Colaboran a la perfección.
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
13. Utiliza lo que has leído para explicar qué tendría que hacer el indicador en el
futuro si más personas de los borana se fueran a vivir a las ciudades.
1 – Respuesta aceptable
En la respuesta se indica la consecuencia general para el indicador si más borana se trasladan
a las ciudades: tendrá que cazar él solo para alimentarse (larvas/colmenas/cera).
Ejemplos:
- Tendrán que buscar las colmenas solos.
- Puede que necesiten encontrar comida por sí mismos.
13. Utiliza lo que has leído para explicar qué tendría que hacer el indicador en el
futuro si más personas de los borana se fueran a vivir a las ciudades.
(CONTINUACIÓN)
Códigos de no respuesta
8 No administrada. Pregunta mal impresa, falta la página u otra razón fuera del control del
estudiante.
9 En blanco
El presente informe, elaborado por el INEE, da cuenta de los resultados más destacados,
comparándolos con los promedios de la OCDE y el total de la UE. En él se estudian, además, factores
como el contexto social, económico y cultural, así como otros aspectos relacionados con el alumnado,
sus familias, los docentes y los centros educativos. Además de los resultados cognitivos, se analizan
los resultados en relación con variables de contexto como el índice socieconómico y cultural, hábitos
de lectura, contextos de aprendizaje y las variables que han intervenido en la mejora de los
resultados que España ha experimentado en comprensión lectora.
GOBIERNO MINISTERIO
DE ESPAÑA DE EDUCACIÓN
Y FORMACIÓN PROFESIONAL