jueves, 11 de diciembre de 2014

Actividad final del curso

Como actividad final para el curso he seleccionado , tal y como se nos demandaba, cuatro unidades de evaluación (estímulos, ítems y guías de codificación) del estudio internacional de PISA y titulado LA LECTURA EN PISA 2000, 2003 y 2006. Marco y pruebas de la evaluación, publicado por el INTEF en el año 2007. Es en concreto una prueba presentada en el PISA del año 2000 y titulado Población Activa (Páginas 56 - 60). Esta unidad de evaluación consta de 5 cuestiones y en la misma vienen las respuestas, la difucultad y la codificación de la misma. 
Para pasar la prueba he seleccionado un grupo de tercero de ESO al que imparto clase. La prueba se la he pasado un un grupo limitado de alumnado de la clase, de la que salen un importante número de alumnos /as salen a diversificación curricular - ellos no han realizado la pueba - . Los sujetos de estudio han sido por lo tanto 16 alumnos/as, de los cuales 6 eran chicos y 10 eran chicas, a los que imparto la materia de Ciencias Sociales , más concretamente durante este curso una materia centrada en la Geografía . Para realizar la prueba les he comentado de que se trataba de la prueba inicial del tema de Población, que forma parte del currículo de Tercero de ESO. 
Como ya señalé en anteriores ocasiones estamos en un macrocentro de una barriada periférica de la capital cordobesa y que en el ISC( índice sociocultural) realizado en la prueba de diagnóstico - a nivel de centro- realizado por la Agencia Andaluza de Evaluación Educativa (AGAEVE), nos encontramos en la franja que enmarca el ISC bajo o medio bajo.
La prueba la hemos llamado como se denominada la Unidad de evaluación en la prueba PISA del año 2000. A esto prueba se le añadido otra más centrada igualmente en la comprensión lectora y que aparece en el mismo volumen bajo el título "De mal gusto". 


Población activa

El esquema de árbol que aparece a continuación muestra la estructura de la población activa de un país,   es decir, “la población en edad de trabajar”. La población total del país en 1995 era aproximadamente de   3,4 millones de personas.

Estructura de la población activa a 31 de marzo de 1995 (en miles de personas) 1




Utiliza la información de la página anterior acerca de la población activa de un país para contestar a las siguientes preguntas.
Pregunta 15
¿Cuáles son los dos grupos en que se divide la población en edad de trabajar?

         A Empleados y desempleados.
B En edad de trabajar y fuera de ella.          
C Trabajadores de jornada completa y trabajadores a tiempo parcial.
D Dentro de la población activa y fuera de la población activa.

Pregunta 16
¿Cuántas personas en edad de trabajar no pertenecían a la población activa? (Escribe el número de personas, no escribas el porcentaje)
Respuesta:


Pregunta 17 ¿En qué parte del esquema en forma de árbol, si la hay, se incluiría cada una de las personas de la lista que aparece a continuación?

  Responde poniendo una cruz en la casilla adecuada de la tabla. La primera está hecha como ejemplo.




Pregunta 18  Supongamos que la información referente a la población activa se presentase todos los años en este tipo de esquema en árbol.
A continuación aparecen cuatro elementos del esquema de árbol. Indica cuáles de estos elementos esperarías que cambiarían cada año, rodeando las opciones “Cambia” / “No cambia”. 

La primera está hecha a modo de ejemplo.            

Pregunta 19

La información sobre la estructura de la población activa aparece representada en forma de esquema de árbol, pero podía haber sido representada de diversas maneras, tales como: una descripción por escrito, un gráfico circular o de otro tipo, o una tabla.

Probablemente se escogiera el esquema de árbol porque es particularmente útil para mostrar...        

  A Los cambios que se producen con el tiempo.
  B El tamaño de la población total del país. 
  C Las categorías de población dentro de cada grupo.
  D El tamaño de cada grupo de población.


Una vez pasada la prueba y tras corregir la misma  siguiendo los criterios  de codificación que aparecen en el informe PISA. Obtengo los siguientes porcentajes en relación a los aciertos:
Pregunta 15:  Objetivo Interpretación .
Porcentaje de aciertos
  • España: 70, 1 %  / OCDE: 62,8 %  / Grupo: 81,25 %
 Pregunta 16: Objetivo Recuperar información.
Porcentaje de aciertos
  • España 42'3 % / OCDE: 46,0 % / Grupo: 50,0 %
 Pregunta 17: Objetivo: Interpretación .
Porcentaje de aciertos
  • España: 38, 9% / OCDE: 39, 2 % / Grupo: 31, 25 %
 Pregunta 18 : Objetivo: Reflexión.
Porcentaje de aciertos:
  • España 70, 5 %  / OCDE: 68, 8 % / Grupo: 93, 75%
Pregunta 19: Objetivo: Reflexión
Porcentaje de aciertos:
  • España 69,9 % / OCDE: 61, 5 % / Grupo: 56, 25 %
Valoración, análisis de los resultados y reflexión sobre la prueba:  
La prueba que he seleccionado se trata de un texto definido como de carácter discontinuo por PISA. De los resultados , entiendo que son poco significativos como para sacar conclusiones. 
En primer lugar, señalar que la muestra no es significativa dado que se la he pasado a un escaso volumen de alumnos /as , lo que podría explicar la ligera desviación en los resultados a favor de mi grupo en relación al resto de España y en relación a la OCDE. También quisiera pensar que se trata de una prueba del año 2000 y que catorce años más tarde hemos progresado en el tema de la comprensión lectora, pues se trabajan en casi todas las materias y , por supuestos enel plano de las competencias. 
Por otro ladodo, reconozco que no me ha sido fácil se realización , en primer lugar, por la coyuntura temporal en la que nos movemos - final del primer trimestre y ajustarla se ha resultado complicado- . Tampoco me ha resultado fácil trabajar con una guía de codificación que no corresponde con las que yo diseño, aunque la codificación estaba clara y muy pormenorizada en el informe. 
Una de las cosas que más les ha llamado la atención y , de hecho, la han preguntado en varias ocasiones es si la misma tenía valor para este trimestre o no. En este sentido quiero resaltar que si ellos no le ven valor, - yo he comentado que era una prueba inicial para el tema de demografía- ponen mucho menos empeño en su realización. 

Para completar la prueba y ajustarla a los que trabajamos he apostado por este texto continuo, un texto que les ha llamado notablemente la atención que ha constituido una segunda prueba,  pasada , al igual que la anterior, en la mañana de hoy al mismo número de alumnos/as y denominada genéricamente "De mal gusto"  que aparece en la publicación antes citada, entre  las páginas 105 y 107, es la siguiente:



De mal gusto. Páginas 105 - 107


La carta de la página anterior apareció en un periódico australiano en 1997. Remítete a ella para responder a las siguientes preguntas.

Pregunta 1                                                                                      R112Q01

 El propósito de la carta de Arnold Jago es provocar...

            A culpabilidad.
            B diversión.
            C temor.
            D satisfacción.
Pregunta 3

 ¿Qué tipo de respuesta o de acción crees tú que quiere provocar Arnold Jago con esta carta?

Valoración, análisis de los resultados y reflexión sobre la prueba:  
La prueba que he seleccionado se trata de un texto definido como de carácter continuo por PISA. De los resultados , vuelvo a entender que son poco significativos como para sacar grandes conclusiones.
La primera pregunta tiene como finalidad la Reflexión sobre la forma de un texto e identificar la finalidad del escritor y la segunda cuestión tiene como finalidad de la pregunta la reflexión sobre el contenido de un texto. En cuanto a la primera pregunta han respondido de manera directa 13 de los 16 alumnoscuya pregunta se ha consignado con la máxima puntuación (Código 1), mientras que en la segunda, al solicitar a nuestros/as alumnos /as un respuesta detectadmos que 7 de los 16 obtienen la máxima puntuación (códigos 3 y 4) , mientras que el resto, un total de 9 se quedaban sin puntuación.
Al igual que he señalado con anterioridad vuelvo a destacar que la muestra no es significativa dado que se la he pasado a un escaso volumen de alumnos /as , lo que podría explicar la ligera desviación en los resultados a favor de mi grupo en relación al resto de España y en relación a la OCDE. También quisiera pensar que se trata de una prueba del año 2000 y que catorce años más tarde hemos progresado en el tema de la comprensión lectora, pues se trabajan en casi todas las materias y , por supuestos enel plano de las competencias. 
Por otro lado, reconozco que , en esta segunda prueba, ha sido más fácil la valoración, pero la codificación era mucho más matizables, puesto que en la segunda pregunta , a pesar de que podía quedarse sin puntuación directa, algunas respuestas estaban en códigos diferentes (2, 1, 0, 8 y 9) y ya sabemos que no es lo mismo no responder,  o que la respuesta no sea pertinente, o responder sin dar la explicación demandada. Vuelvo a indicar que la realización no  ha sido fácil por la coyuntura temporal en la que nos movemos - final del primer trimestre y ajustarla me ha resultado complicado- .

jueves, 4 de diciembre de 2014

Actividad tema 4: Concurso de fotografía

Actividad para la comprensión lectora, destinada al alumnado de 3º de ESO de un centro educativo. En ella se emplearán dos estímulos, uno visual, un cartel en el que se anuncia un concurso de fotografía,  y un texto, en concreto, las bases del concurso. Para acercar el texto a la realidad del alumnado de su edad se presentarán por medios de dos alumnos, un chico y una chica, que encuentran el folleto en el tablón de anuncios de una biblioteca pública. Junto a las preguntas y sus posibles respuestas encontrarás la valoración (codificación que he creado para la prueba). 

A la salida de la Biblioteca de Distrito, tras haber estado preparando sus exámenes, Rafael, alumno de IES Averroes, y Paula, vecina suya y alumna del IES Medina Azahara, encuentran un folleto que contiene una imagen y un texto explicativo en en el que se anuncian las bases de un concurso de Fotografía. 

Imagen del Concurso de fotografía

  Imagen tomada de la bitácora del IES Averroes


BASES del concurso:
1. Organiza el IES Averroes de Córdoba. 
2. Podrá participar toda la comunidad educativa del IES Averroes (alumnos/as, profesores/as, padres y madres, antiguos alumnos/as, personal laboral...) 
3. Plazo de realización: del 15 Diciembre hasta el 31 de Marzo de 2012. 
4. El tema: Mi barrio. El planteamiento es abierto, pues se puede hacer desde el punto de vista cultural, urbanístico, medioambiental, artístico y social. 
5. Las fotografías se presentarán en formato digital, la técnica será libre. 
6. Las fotografías deberán enviarse en formato JPG, con un máximo de 2 MB, a este correo: fotografia.alsurdelrio@gmail.com . El “asunto” con el que se identifica será el título de la foto, que coincidirá con el “nombre del archivo”. El nombre del autor se indicará únicamente en el ”mensaje” del correo. 
7. Cada autor/a podrá presentar un máximo de 3 fotografías. Estas pueden ser en color o blanco y negro. 
8. Una selección de las obras presentadas se expondrán públicamente en la Galería Tríptico del centro. 
9. Se establecerán 2 categorías de premios: 1º premio: una cámara digital y diploma, 2º premio: un MP4 y diploma. Los premios serán recogidos en acto público. 
10. El jurado será designado entre los miembros de la comunidad educativa. 

Tras leerlo detenidamente han de responder a un cuestionario de comprensión lectora: 

Pregunta 1: PARTICIPACIÓN EN EL CONCURSO (Q01) 
Pregunta de elección múltiple

Rafael lee las bases del concurso. ¿Qué dicen las bases del concurso sobre la participación? ¿Podría participar Paula?

Respuestas:
A. Es un concurso abierto al barrio. 
B. Es un concurso a nivel educativo, por lo que pueden participar los alumnos/as de cualquier centro público del barrio. 
C. Es un concurso limitado a los antiguos alumnos/as del centro. 
D. Es un concurso abierto a las personas que integran la comunidad educativa de ese centro. 

INTENCIONALIDAD DE LA PREGUNTA 

  • Acceder y obtener: extraer información 
  • Localizar información explícitamente enunciada 

Puntuación máxima 

Código 1: D. Es un concurso en el que pueden participar padres y madres de alumnos y alumnas del centro. 

Sin puntuación 

Código 0: Otras respuestas. 
Código 9: Sin respuesta. 

Pregunta 2: PARTICIPACIÓN EN EL CONCURSO (Q02) 
Pregunta de elección múltiple 

Observa la imagen 1 y el texto complementario sobre las bases del concurso y responde. Una vez leídas las bases del concurso,  ¿es posible la entrega de las fotografías en un sobre anónimo y cerrado, con el nombre del participante en su interior? 


Respuestas: 

A. Sí, pues lo permiten todos los concursos 
B. No, pues hay que enviarlo a un correo electrónico 
C. Sí, pues se permiten en formato digital 
D. No, pues hay que especificar en la categoría en la que te presentas 

INTENCIONALIDAD DE LA PREGUNTA 

  • Acceder y obtener: obtener información 
  • Localizar información explícita en las bases del concurso. 

Puntuación máxima 

Código 1: B. No, pues hay que enviarlo a un correo electrónico 

Sin puntuación 

Código 0: Otras respuestas. 
Código 9: Sin respuesta. 

Pregunta 3: PARTICIPACIÓN EN EL CONCURSO (Q03) 
Pregunta de respuesta construida.
Pregunta Compleja.

Leyendo las bases del concurso.  Una vez realizadas las fotografías, que se han podido realizar con una cámara o con un dispositivo móvil, y que pueden ser en blanco y negro o en color, se ponen dos restricciones a la hora de entregarlas: han de estar en un formato concreto - en concreto .jpg- y presentar un peso en pixeles determinado, una capacidad limitada a 2MB. 

Pregunta: Una vez leídas con detenimiento las bases del concurso, a Rafael le surgen algunas dudas y le pregunta a Laura lo siguiente: ¿qué pueden significar estas limitaciones en el tipo de formato y en los MB? 

INTENCIONALIDAD DE LA PREGUNTA 

  • Elaborar un discurso integrando la información a la que se ha accedido por medio de las bases del concurso, reflexionando sobre las condiciones en las que se han de presentar las fotografías. 
  • Integrar e interpretar: desarrollar una interpretación. 
  • Reflexionar y evaluar: reflexionar sobre el contenido de un texto y evaluarlo. 
  • Explicar los condicionantes técnicos del concurso. 

PUNTUACIÓN 

Puntuación máxima 

Código 2: Se refiere a la necesidad de adecuar la fotografía a un formato de imagen determinado (jpg), imposibilitando otros formatos existentes para el almacenamiento de las imágenes (bmp, png, tiff, gif, …) y reducir el peso de imagen comprimiéndola lo suficiente para que se puedan adjuntar a un correo electrónico con limitada capacidad. 


Puntuación parcial 

Código 1: Da una respuesta vaga o insuficiente. 

‐ Se limita a corroborar la información del folleto, aseverando que es como han de entregarse las fotografías “en formato JPG, con un máximo de 2 MB”. 
- Muestra una comprensión imprecisa de la idea de formato o da una respuesta irrelevante. 

Sin puntuación 


Código 0: Da una respuesta ininteligible o incompleta. ‐ Podría ser… ‐ No lo sé, pero… 
Código 9: Sin respuesta 


Pregunta 4: PARTICIPACIÓN EN EL CONCURSO (Q04) 

Una vez decidida la participación en el concurso fotográfico Rafael informa a sus compañeros/as sobre el concurso y les ha de explicar qué intención tiene su IES a la hora de organizar este concurso de fotografía. 


INTENCIONALIDAD DE LA PREGUNTA 

  • Pregunta Compleja. Elaborar un discurso integrando la información a la que se ha accedido por medio de la imagen y de las bases del concurso, reflexionando sobre lo que pretende el instituto con el concurso. 
  • Acceder y recuperar: recuperar información. 
  • Integrar e interpretar: desarrollar una interpretación. 
  • Reflexionar y evaluar: reflexionar sobre el contenido de un texto y evaluarlo. 
  • Explicar una elección basada en una comparación. 


PUNTUACIÓN 


Puntuación máxima 

Código 2: Se refiere al deseo del centro por estimular la participación de todos los miembros de la comunidad educativa y a la necesidad de identificar el IES con el barrio. 

Puntuación parcial 

Código 1: Da una respuesta vaga o insuficiente. 
‐ Únicamente valora el premio final o la posibilidad de exponer en la Sala Tríptico. Muestra una comprensión imprecisa de la intencionalidad del concurso o da una respuesta irrelevante.

Sin puntuación 

Código 0: Da una respuesta ininteligible o incompleta. ‐ Podría ser… ‐ No lo sé, pero… 
Código 9: Sin respuesta

miércoles, 3 de diciembre de 2014

Elaborar una prueba


Imagen obtenida de scientiablog
Cuando preparo un examen me planteo que, ante todo, debo ser coherente con el trabajo de los contenidos y actividades que hemos realizado en las semanas o días previos a la prueba. Si he dado un peso específico a lo que antes llamábamos procedimental, pues esto será lo que prevalezca en la prueba. Y si el desarrollo ha sido más teórico, el examen tendrá que ser similar a lo realizado previamente. 
Por supuesto, no aplico el mismo modelo en las pruebas de secundaria que en las de bachillerato, aunque conforme voy acercándome a los cursos superiores en la ESO, el modelo se irá aproximando al de bachillerato. El modelo en Bachillerato reconozco que se adapta, en gran medida, al que posteriormente, se formula en las pruebas de acceso a la Universidad con el fin de ir preparándose para una prueba que puede resultar decisiva en el fitiro de nuestros alumnos/as. En ella, por supuesto, se combinan la parte teórica con la parte práctica.
De cualquier manera soy partidario de todo de pruebas. Especialmente, en primero de ESO puedo presentar cuestionarios con preguntas y respuestas alternativas. A veces, incluyo las de verdadero y falso, aunque han de justificar siempre la respuesta. 
Progresivamente voy introduciendo preguntas en base a cuestiones concretas formuladas ya en el aula, ya en las actividades, o preguntas de desarrollo, así como lo que hemos llamado en este curso estímulos, llámense textos, imágenes, gráficos o igualmente, y para desarrollar la competencia de autonomía personal , en ocasiones, les pido a mis alumnos/as que formulen alguna pregunta y que me den su correspondiente respuesta. 
En realidad, no evito ningún modelo de prueba ni pregunta alguna. Es más, un aspecto que igualmente demando es que ellos realicen su propia autoevaluación en función del trabajo realizado en el aula, fuera de la misma o del tiempo dedicado al estudio, que sin ser vinculante sí puede ser significativo. Un saludo

martes, 2 de diciembre de 2014

¿Cómo corriges?

Imagen tomada de slideplayer.es

En la actividad número uno de este cuarta unidad se nos hace una pregunta directa: ¿Cómo corriges? Buena pregunta que, evidentemente, te invita a la reflexión. La respuesta natural es la que nos invita a esgrimir la justicia como primer principio y la igualdad, conjuntamente con el primero. 
Pero ¿corregimos a todos los grupos y a todos los alumnos /as por igual? La respuesta es que no. Lo primero, tenemos que tener presente es nuestra propia normativa, especialmente a todo aquello que tiene que ver con la atención a la diversidad. Esa atención hace que los objetivos, así como los criterios de evaluación e instrumentos para este tipo de alumnado que atendemos en el aula por tener unas necesidades educativas especiales (NEE), que pueden ser tanto por encima (Altas Capacidades) o por debajo sean distintos. 
Por lo pronto, el sentido de la igualdad absoluta se desvanece ante la necesidad de atender a los alumnos/as como lo que son individuos, integrados en un grupo. Salvando este importante matiz, lo cierto es que si me tuviese que identificar como riguroso / estricto en la evaluación o generoso, creo que, en este sentido, hay dos ámbitos diferenciados soy más riguroso con el trabajo, pero más generoso en la corrección. 
Visto lo visto - y dicho lo dicho-, lo bueno de las pruebas PISA o PIRLS para la corrección es el marcado carácter objetivo de las mismas sobre todo si se tienen claras las referencias en la codificación que marca , a su vez, la corrección. 
De todas maneras corregir no es fácil y, sobre todo, no suele ser gratificante. Al fin y al cabo, trabajamos con personas y, en ocasiones, nuestras pretensiones de ser justos e igualitarios con todos y todas, se quedan en una intención, o un “desiderátum”, pero siempre tendiendo hacia la justicia, si es que existe. 
 Imagen tomada de frasespedia.com

domingo, 30 de noviembre de 2014

Actividad P2P: posible uso de los ítems liberados en el aula

Una vez elegidos los ítems liberados por PISA procedo a elegir dos estudios que evalúen la misma competencia, en este caso la comprensión lectura, basándome en ambos casos en lo que en PISA se llama texto discontinuo. En concreto voy a señalar dos que muestran las relaciones geográficas entre distintos lugares, por lo que van a aparecer no sólo distintas clases de mapas, así como otra información de carácter informativo (un folleto). Uno estará destinado a 1º de ESO para la materia de Ciencias Sociales - explico posteriormente las razones - y el segundo a un grupo de 3º de ESO para la materia de Ciencias Sociales.
Imagen procedente de un ítems liberado de la PIRLS 2001

El estímulo utilizado para trabajar lo que es una prueba liberada del P I R LS 2 0 01, y que lleva por título “Sigue el sendero del río Nord” y que abarca las Páginas de 109 – 126 está en su contextualización. El ítem liberado nos presenta Mi idea es presentarlo con un grupo de 1º de ESO, a pesar de que la prueba corresponde a niveles de 4 de Primaria. 
Se trata de un grupo de un centro de Córdoba contextualmente radicado en una barriada periférica de la capital, socialmente deprimida, y con ISC (Índice sociocultural) identificado como bajo en las últimas pruebas de diagnóstico realizadas por la Junta de Andalucía (Curso 2013-2014). Los niveles dentro del grupo son dispares, pero el grado de capacitación competencial mayoritario es limitado. 
Han trabajado poco las competencias, en este caso la actividad del P I R LS 2 0 01: “Sigue el sendero del río Nord” parece no sólo apropiada – similar a una realizada en la introducción al tema 3 de Ciencias Sociales, vinculado con las aguas. 
En el estudio PIRLS 2001 este texto fue presentado en forma de folleto independiente, el mismo está acompañado un plano con El sendero del río Nord. El proceso se centra en el análisis y la evaluación del contenido, el lenguaje y los elementos textuales, así como el proceso de localización y obtención de información explícita o de la realización de inferencias directas. Por último, la interpretación e integración de ideas e información. Las preguntas 1 y 2 se basan en distintas partes del texto. Al lado de cada pregunta te mostramos la sección donde el alumno/a ha de buscar la información. Contextualmente el tema es apropiado desde el momento en que estamos trabajando en el aula - y fuera de la misma- en proyectos. 
En concreto, este año al igual que el anterior para 1º de ESO se trata del espacio de un concreto, concretamente este año el río Guadalquivir. Sobre el mismo trabajaremos para el desarrollo de todas las competencias. Así que el elemento motivador y estimulante principal es el análisis de un espacio acuático, que pasa por la ciudad, pero que no está estrictamente integrado en la misma – lo estuvo hasta mediados del siglo XX-, aunque ecológicamente y paisajísticamente y ecológicamente muy atractivo. En el desarrollo de este análisis el alumnado saldrá del centro para recorrer la ribera del Guadalquivir ( segundo elemento motivador)  y completará un cuaderno de trabajado elaborado por todos los Departamentos Didácticos de manera transversal. Nuestra intención final, el producto resultante de este proyecto,  pudiera ser la realización o redacción por parte de cada grupo o del equipo de trabajo de un informe o proyecto similar al presentado por el PIRLS para la prueba del año 2000. De cualquier manera, una de las opciones es combinar el resultado final con un informe, que podróa hacerse en formato digital  y enviarlo por la plataforma educativa, una vez expuesto en el aula.Entiendo que con el mismo trabajaríamos todas las competencias.
Otros ítems liberados de interés para trabajar en el aula han sido: P I R LS 2 0 06 : Un paseo espacial ( Páginas 174- 191) y P I R LS 2 0 06 : La Antártida: tierra de hielo ( Páginas 213 – 227) 

 Imagen procedente de un ítems liberado del PISA 2000
El segundo ítems utilizado para trabajar lo que es una prueba liberada del PISA 2000 se titula “El lago Chad” (Páginas 38 – 42). Este sería presentado para mi alumnado de 3º de ESO una vez vistos los temas introductorios vinculados con la Geografía Descriptiva, en este caso, del continente africano. 
El estímulo es poner integrar este texto discontinuo dentro de lo que es la aportación del área al Proyecto Lingüístico de centro para el desarrollo de la lectura, presentando como alternativa a lo tradicional, la lectura de un texto en clase, por ejemplo, procedente de la prensa con otro tipo de fuentes para que los alumnos, por ejemplo, reflexiones sobre aspectos tales como el cambio climático actual, pero también anteriores, sus efectos en el ecosistema y el problema del agua en los países del África subsaharina. Realmente podríamos realizar con el mismo un viaje virtual a la zona.
Al igual que en la propuesta anterior se pretende el desarrollo no sólo de esas cuestiones para la comprensión lectuora, sino también del desarrollo de otras competencias derivadas del mismo como pueda ser la expresión oral (vinculada con la exposición), la de aprender a aprender y la social (trabajando en grupo) y la digital, con la realización de un informe sobre la situación ecológica en el área del Sahel. De cualquier manera, una de las opciones es combinar el resultado finla con un informe que han de hacerlo en formato digital  enviarlo por la plataforma educativa, una vez expuesto en el aula.
Imagen procedente de un ítems liberado del PISA 2000
Este ejemplo de lectura contiene dos figuras. La Figura A muestra los cambios de profundidad experimentados por el lago Chad, y su evolución en el tiempo y el espacio, mientras que la Figura B muestra la relación entre el arte rupestre sahariano (dibujos o pinturas encontradas en las paredes de las cuevas) y los cambios en la fauna. La dificultad en este caso es mayor al combinar datos tomados tanto de la Figura A como de la Figura B. Para su resolución hay que desde recuperar información hasta la reflexión.

Aprovechando PIRLS y PISA

Aprovechando que me he leído los textos y he buceado en los informes de PISA y PIRLS que me han solicitado realizo esta entrada pues ya que he recabado información la introduzco en el blog para que deje reflejo de mi trabajo, para el presente y para el futuro.  Indicar igualmente que hay mucho de corta  pega sacado de los informes, pero que - creo- pueden ser útiles a alguien. 
Una vez leídos los dos textos y los dos marcos teóricos que justifican las pruebas PIRLS y la PISA se puede llegar a la conclusión que el interés es común : la evaluación de la competencia lectora. Pero las diferencias entre unas y otras visibles no sólo en los textos- como he leído en el debate, ratones versus juez- , sino también en aspectos tales como la naturaleza de la narración ( siendo en ambas magníficas y , en la primera historia, la de los ratones, con la autoría definida – especialmente visible en el caso de la prueba PIRLS, en este caso perteneciente a un autor consagrado como es el caso de Roald Dahl y con el acompañamiento de la ilustración , algo esencial en el perfil de edad del alumnado evaluado- , y evidentemente la edad a la que va dirigido el texto, así como las preguntas y su carácter más o menos abierto o cerrado, bastante más abierto en el caso de la Lectura del juez justo destinado a los chicos y chicas de 15 años. 
Ya vemos que a partir, difieren no sólo los organismos que la coordinan OCDE y la Asociación Internacional para la Evaluación del Rendimiento Educativo (IEA), en contenidos – evidentemente- , los objetivos a alcanzar (desarrollar sus conocimientos y posibilidades y participar en la sociedad en el caso PISA y construir significados a partir de una variedad de la lectura, leer para aprender y para ser lectores del ámbito escolar y de la vida cotidiana, y leer para disfrute personal en la PIRLS), espacios para la prueba (y naturaleza de sus respuestas con más opciones múltiples en la de los ratones y respuestas más abiertas y más reflexivas en la del segunda – la del juez- ), calendario (cada tres año en la PISA- la próxima en 2015-, mientras que la PIRLS, lo hace cada cinco años, ¿2016?), la longitud de la prueba ( adecuada a la edad y con un contenido más acorde con la misma; más larga, en la de PISA y más ajustada en la PIRLS), y evidentemente en otros aspectos como la aplicación, metodología , etc… Comprobamos, por otro lado, que en el caso del PISA y sus unidades liberadas (es decir, que ya no se usarán en futuras ediciones del estudio), procedentes tanto de la prueba piloto como de la prueba principal de PISA 2000, 2003, 2006 , en papel, - aunque son también muy interesantes igualmente las liberadas realizadas por ordenador del año 2012, como en la PIRLS, correspondiente a las pruebas de 2001 y 2006. 
En el caso de PISA se afirma lo siguiente sobre la misma: “La competencia lectora es la capacidad de comprender, utilizar y analizar textos escritos para alcanzar los objetivos del lector, desarrollar sus conocimientos y posibilidades y participar en la sociedad”. Frente a esta definición tenemos lo que entiende como competencia lectora PIRLS que la concibe como: “La habilidad para comprender y utilizar las formas lingüísticas requeridas por la sociedad y/o valoradas por el individuo, en este caso, lectores de corta edad son capaces de construir significado a partir de una variedad de textos. Leen para aprender, para participar en las comunidades de lectores del ámbito escolar y de la vida cotidiana, y para disfrute personal”. 
La PIRLS valora la competencia lectora como un proceso constructivo e interactivo y distingue tres grandes aspectos a la hora de evaluar esta competencia: los Procesos cognitivos o de comprensión que intervienen en la lectura; los Propósitos de la lectura (experiencia literaria y obtención de información) y los hábitos y actitudes ante la lectura. Los dos primeros aspectos, procesos y propósitos, se evalúan en PIRLS a través de la prueba propiamente dicha, mientras que las actitudes y hábitos del alumnado ante la lectura se evalúan a través de cuestionarios (para alumnos, colegios y familias) en los que se pregunta por los hábitos lectores, el contexto personal y familiar, la enseñanza de la lectura, etc. 
La evaluación PISA mide los siguientes cinco procesos que deben realizarse para comprender plenamente un texto, ya sea continuo o discontinuo. Los estudiantes deben demostrar su dominio en cada uno de los cinco procesos: obtención de la información, comprensión general, la elaboración de una interpretación, la reflexión y valoración del contenido de un texto, y reflexión y valoración de la forma de un texto. Para PISA la comprensión plena de un texto requiere poner en juego todos esos procesos. En ambos casos se trata de textos que PISA lo cataloga o lo incluye en la categoría de formato textual y en concreto lo que se consideran textos continuos por sus características narrativas (responden al «¿cuándo?» o «¿en qué orden?»), expositivas(responden al «¿cómo?»), descriptivos (responden al «¿qué?» , los argumentativos (responden a ¿por qué?) y textos discontinuos. 
La PIRLS valora la competencia lectora como un proceso constructivo e interactivo. Se considera que los lectores generan significados de manera activa, conocen estrategias de lectura eficaces y son capaces de reflexionar sobre lo que han leído. Mantienen actitudes positivas hacia la lectura y leen para disfrute personal. Los lectores han de enfrentarse a multitud de textos existentes en la sociedad actual. Éstas incluyen tanto las formas escritas tradicionales (libros, revistas, documentos y periódicos) como las presentaciones electrónicas (Internet, el correo electrónico y los mensajes de texto) así como los textos incluidos en cine, vídeo o televisión (anuncios publicitarios y subtítulos). El significado se genera a través de la interacción entre lector y texto en el contexto de una experiencia lectora concreta. El lector aporta un repertorio de destrezas, estrategias cognitivas y metacognitivas, y de conocimientos previos. El texto contiene ciertos elementos lingüísticos y estructurales y se centra en un tema específico. El contexto en el que se desarrolla la lectura fomenta los vínculos con ésta y la motivación para leer. 
PIRLS distingue tres grandes aspectos a la hora de evaluar esta competencia: los Procesos cognitivos o de comprensión que intervienen en la lectura; los Propósitos de la lectura (experiencia literaria y obtención de información) y los hábitos y actitudes ante la lectura. Los dos primeros aspectos, procesos y propósitos, se evalúan en PIRLS a través de la prueba propiamente dicha, mientras que las actitudes y hábitos del alumnado ante la lectura se evalúan a través de cuestionarios (para alumnos, colegios y familias) en los que se pregunta por los hábitos lectores, el contexto personal y familiar, la enseñanza de la lectura, etc. 
La competencia lectora está directamente relacionada con las razones por las que las personas leen. En el caso de los lectores de corta edad, estas razones pueden agruparse en dos: la lectura para uso y disfrute personal y la lectura para el aprendizaje. 
Ambos propósitos están también presentes en la mayoría de lecturas que el alumnado de estas edades realiza, tanto dentro como fuera del ámbito escolar, Hay dos ámbitos de lectura. La primera es la lectura como experiencia literaria. El lector se vale del texto para implicarse en acontecimientos, entornos, acciones, consecuencias, personajes, ambientes, ideas y sentimientos ficticios, y para disfrutar del lenguaje en sí. Esta lectura generalmente se realiza para disfrute personal. 
El segundo es la lectura para la adquisición y uso de información. El lector no se ve inmerso en mundos de fantasía, sino en aspectos del universo real. A través de textos informativos, es posible entender cómo es el mundo y cómo ha sido, y por qué las cosas funcionan de la manera que lo hacen. Los lectores pueden ir más allá de la adquisición de información y utilizarla para practicar el razonamiento y la acción. Este tipo de lectura suele realizar como instrumento de aprendizaje.
Los textos que los alumnos suelen leer dentro y fuera del centro escolar generalmente han sido escritos por autores de éxito que entienden lo que supone escribir para un público infantil. Por otro lado, es más probable que conecten con los intereses de los alumnos, y que den lugar a preguntas que ofrezcan una variedad de respuestas similares a las generadas en experiencias lectoras auténticas. En el marco de un estudio internacional, el hecho de conseguir autenticidad en la experiencia lectora de la prueba puede estar de alguna manera constreñido por la necesidad de traducir los textos a numerosos idiomas. Por ello, se ha esmerado el cuidado a la hora de elegir textos que puedan ser traducidos sin pérdida de significado o de interés potencial para el alumno. Más aún, con objeto de presentar al menos algunos textos de una manera más realista y natural, dos de los bloques de la prueba (uno literario y otro informativo) se presentan separados, en color y con un formato real. 
Las preguntas que siguen a los textos de cada bloque tratan de evaluar los procesos de comprensión que el alumno es capaz de alcanzar a partir de su lectura. Las preguntas se distribuyen a partes iguales entre los propósitos de lectura literario e informativo y, de manera proporcional, entre los distintos procesos de comprensión. De esta manera, los resultados obtenidos permitirán ofrecer resultados de los rendimientos del alumnado en función de los propósitos de lectura y de los procesos de comprensión 
Las preguntas utilizadas son de dos tipos: de elección múltiple y de respuesta construida o abierta. Las preguntas de respuesta múltiple ofrecen cuatro opciones de respuesta, de las cuales sólo una es correcta. Estas preguntas se pueden usar para evaluar cualquiera de los procesos de comprensión. Sin embargo, como no permiten explicaciones o enunciados de justificación por parte de los alumnos, estas preguntas quizás sean menos apropiadas para evaluar su capacidad a la hora de hacer interpretaciones o valoraciones más complejas. 
Al evaluar a los alumnos de cuarto curso de educación primaria, es importante que las características lingüísticas de las preguntas sean adecuadas al desarrollo de los niños. Por lo tanto, las preguntas están redactadas de manera clara y concisa. Las opciones de respuesta también están redactadas de manera sucinta con el f in de minimizar la carga lectora de la pregunta. Las opciones incorrectas están redactadas de manera que resulten verosímiles, y no engañosas. Para los alumnos que no estén familiarizados con este formato de preguntas, las instrucciones que aparecen al inicio de la prueba incluyen una muestra de ítems de elección múltiple que ilustran cómo seleccionar y marcar una respuesta. 
Las preguntas de respuesta construida o abierta ofrecen más autonomía de respuesta al alumno. La mayoría de ellas le piden escribir la respuesta con sus propias palabras, en un espacio por lo general de dos o tres línea s en blanco. En algunas ocasiones, la respuesta presenta un listado de frases o datos y al alumno se le pide que ordene la secuencia en que han de ir, asignando a cada uno el número que le corresponde. La decisión de utilizar un formato u otro depende del proceso de comprensión que se vaya a evaluar y del formato que mejor permita alumnado  demostrar su comprensión lectora . 
La importancia dada a las preguntas de respuesta construida en el estudio PIRLS es coherente con la definición de competencia lectora que subyace en los marcos teóricos. Refleja la visión interactiva y constructiva de la lectura, según la cual el significado se construye a través de la interacción entre el lector, el texto y el contexto de la tarea lectora. Estas preguntas se utilizan para la evaluación de cualquiera d e los cuatro procesos de comprensión; sin embargo, resultan particularmente apropiadas para evaluar aspectos de dicha comprensión que requieran aportar una justificación por parte de l alumno o que tengan como resulta do interpretaciones sobre la base de su experiencia y conocimiento previos. En cuanto a la PISA Esa definición supera la idea tradicional de competencia lectora como proceso de descodificación y comprensión literal. En lugar de ello, parte de la base de que la competencia lectora comporta comprender informaciones escritas, utilizarlas y reflexionar sobre ellas para cumplir una gran variedad de fines. La definición tiene, pues, en cuenta el papel activo e interactivo del lector que adquiere información a partir de textos escritos. 
La definición también está abierta a la enorme variedad de situaciones en las que la competencia lectora puede desempeñar un papel para los adultos jóvenes, situaciones que van desde lo público a lo privado, desde el entorno escolar al laboral, desde el ejercicio activo de la ciudadanía hasta el aprendizaje continuo. Asimismo, hace explícita la idea de que la capacidad de lectura permite al individuo dar satisfacción a una serie de aspiraciones personales, que abarcan desde la consecución de metas específicas, como la cualificación educativa o el éxito profesional, hasta objetivos menos inmediatos destinados a enriquecer y mejorar la vida personal. 
La competencia lectora también proporciona a las personas unos instrumentos lingüísticos que resultan cada vez más necesarios para poder hacer frente a las exigencias de las sociedades modernas, con su extenso aparato burocrático, sus instituciones formales y sus complejos sistemas legales. 
Con objeto de utilizar los formatos textuales, las características de los ejercicios y las situaciones, tanto en el proceso de elaboración de las pruebas de evaluación como en la posterior interpretación de los resultados, fue preciso especificar el rango de cada uno de dichos factores. 
 De ese modo se pudo categorizar cada tarea con el fin de que el peso relativo de cada factor pudiera tenerse en cuenta a la hora de llevar a cabo la redacción final del estudio. Se utilizan tres conjuntos de variables para describir las características de los ejercicios: los procesos (aspectos), que describen la tarea exigida a los estudiantes; los tipos de ejercicio, que especifican la manera exacta en la que los estudiantes han de demostrar su capacidad, y los criterios de corrección, que especifican cómo han de evaluarse las respuestas de los estudiantes. 
La evaluación PISA mide los siguientes cinco procesos que deben realizarse para comprender plenamente un texto, ya sea continuo o discontinuo. Los estudiantes deben demostrar su dominio en cada uno de los cinco procesos: obtención de la información, comprensión general, elaboración de una interpretación, reflexión y valoración del contenido de un texto, reflexión y valoración de la forma de un texto. La comprensión plena de un texto requiere poner en juego todos esos procesos. Es de esperar que cualquier lector, con independencia de su capacidad global, demostrará cierta competencia en cada uno de ellos. Si bien los cinco aspectos están emparentados –cada uno puede requerir muchas de las mismas habilidades básicas –, ejecutar con éxito uno de ellos no garantiza que se haya efectuado satisfactoriamente cualquiera de los restantes. 
Hay quienes opinan que estos aspectos, más que un escalonamiento jerárquico o un conjunto de habilidades, constituyen el acervo de todo lector en todos los niveles de su desarrollo. Las tareas que evaluaban la competencia lectora correspondían a ejercicios de respuesta construida-abierta que exigían una valoración por parte del corrector o evaluador.
Las tareas restantes consistían en ejercicios de respuesta construida-cerrada, que apenas requieren valoración por parte del evaluador, ejercicios de elección múltiple sencilla, en los que los alumnos tienen que elegir una entre varias respuestas alternativas, y finalmente ejercicios de elección múltiple compleja, en los que los estudiantes tienen que escoger más de una respuesta. 
La corrección es relativamente sencilla en el caso de los ejercicios de elección múltiple y puntuación dicotómica: el estudiante ha dado con la respuesta correcta o no. Los modelos de puntuación parcial posibilitan una corrección más matizada de los ejercicios. Por ejemplo, dado que algunas respuestas erróneas son preferibles a otras, los estudiantes que han elegido una respuesta «casi correcta» reciben una puntuación parcial. Hay amplia experiencia en modelos psicométricos para este tipo de correcciones politómicas que, en algunos casos, son preferibles a las correcciones dicotómicas, puesto que tienen en cuenta más información. No obstante, la interpretación de las correcciones politómicas es más compleja, ya que cada tarea ocupa más de una posición en la escala de dificultad: una localización para el caso de la respuesta idónea, que recibe la puntuación total, y otras para las respuestas que reciben puntuaciones parciales. 
En PISA, la corrección con puntuaciones parciales se reserva para algunos de los ejercicios de respuesta construida más complejos. En un juez justo se busca como finalidades: 
1. Elaboración de una interpretación: deducir los propósitos o intenciones de un personaje. 
2.Obtención de información: correspondencia análoga. 
3. Reflexión sobre el contenido de un texto: contrastar una representación mental de lo que ocurre en el texto con un punto de vista basado en una información previa. 
4. Consecución de una comprensión global: identificar el tema principal de un relato. 
5. Reflexión sobre el contenido de un texto: establecer comparaciones entre los conceptos representados en la historia y los propios conocimientos. 
6. Reflexión sobre la forma de un texto: identificar el género de una historia 
En la evaluación PIRLS vemos que las pruebas liberadas corresponden a los años 2001 y 2006 PIRLS (Estudio Internacional de Progreso en Comprensión Lectora) evalúa y compara internacionalmente la competencia lectora del alumnado de cuarto curso de educación primaria (entorno a los 10 años). 
La participación de España en este estudio, en su edición de 2006, complementa los datos obtenidos hasta ahora por PISA sobre el rendimiento de los jóvenes a los 15 años, obteniéndose así un cuadro más amplio y completo de los resultados que consigue el sistema educativo español. 
Cada unidad de evaluación está formada por un texto y una serie de preguntas sobre el mismo; la mitad de los textos son breves relatos literarios y la otra mitad, de tipo informativo. 
Junto a las preguntas, y en recuadros diferenciados, se incluye una completa información para el profesorado: indicación de la respuesta correcta a las preguntas de respuesta múltiple así como guía de corrección con ejemplos de respuestas para las preguntas abiertas, referencias sobre el tipo de proceso o destreza requerido en cada pregunta, el nivel de competencia lectora que ésta exige así como los porcentajes de respuestas acertadas obtenidos por la media internacional y la del alumnado español.

sábado, 29 de noviembre de 2014

Uso de los ítems liberados

Imagen obtenida del blog.educalag.es

Uno lleva ya algún tiempo - un años , más o menos- siguiendo a Ismael Sanz por twitter y, de pronto, lo vemos en un video de youtube, como si de un youtubers se tratara, y mi capacidad de sorpresa se engrandece. Sin embargo, descubrimos que Ismael sigue siendo no ya un youtuber, sino la misma persona que está al pie del cañón, siete días a la semana, enviando tuits con gráficas y con mensajes que responden a lo que nos solicitaba ese escritor medieval español, sobrino de Alfonso X el Sabio, Don Juan Manuel, que nos pedia que lo que debemos escrubir debe responder siempre a un mismo modelo: ser breve, claro y conciso. Es tan claro y tan directo en este video, como lo es en sus tuits. 
En este caso nos presenta como son esos ítems, o sea, essa cuestiones planteadas en las pruebas de evaluación internacional (PISA, TIMMS y PIRLS) . Descubrimos gracias a él, las dificultades que se presentan para que la prueba a realizar y para que esta sea coherente en todo el mundo, estriban en el hecho de que en las mismas hay que evitar que aparezcan errores tan nimios, pero tan importantes, como un error en el planteamiento cultural en relación al país en el que se está haciendo la pregunta, en la traducción de la cuestión a una determinada lengua (en ambos casos, para huir de las ambigüedades) o en la maquetación de la misma que podría trasformar lo que es un prueba , que pretende ser objetiva, en una prueba fallida. La intención de esta pruebas se acerca a nuestra idea de la competencia: Lo importante es lo que sabe hacer nuestro alumnado con lo que sabe. Eso es lo importante en una de estas pruebas. Esto y valorar las competencias es lo mismo. 
Eso es lo que podemos encontrar en la web de inee. Cuando se nos pide que busquemos un modelo de pruebas, yo me encamino a las de comprensión lingüística, las más cercanas a mí materia, y he seleccionado para ello la cuestiones o ejemplos de preguntas en soporte digital del PISA 2012 y que puede aparecer en este enlace
Una vez vistas y leídas, realizo esta entrada pues, como he señalado esta mañana en un tweet, me servirán de modelo en la hora que hemos de dedicar  en mi centro al fomento de la lectura, algo que asumimos y que debemos de concretar de manera efectiva. Gracias, Ismael y un saludo.

viernes, 28 de noviembre de 2014

Discrepancias informativas

Las tiranías del informe PISA, así empieza un artículo publicado el 8 de mayo del presente año en el diario “El País” en su versión digital, y es que para determinada prensa- y, ¿por qué no decirlo?- los procesos de evaluación externa, sobre todos, los auspiciados por la OCDE son pocos o nada creíbles. En ese mismo artículo se comentaba que un total de 83 grandes expertos internacionales —la mayoría estadounidenses y británicos—criticaban que las prácticas educativas de algunos países estaban cambiando para presentar mejoras en el “ranking” PISA. 

Imagen obtenida de la web de stes-intersindical

Estos expertos hicieron llegar por carta al alemán Andreas Schleicher, director del programa de evaluación al que se someten los alumnos de 15 años de 64 países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), sus temores. 
Schleicher optó por responderles con otra carta y en estos términos: “PISA proporciona oportunidades para diseñar una estrategia política, porque muestra otras opciones, perspectivas, al compararse con otros países. Y permite a los políticos, administraciones y organizaciones colaborar fuera de sus fronteras”. 
Denunciaban los 83 en su carta que los Gobiernos son cortoplacistas y toman medidas sin largo recorrido sólo con tal de mejorar en el siguiente examen (estos son cada tres años). 

En esa misma línea con el Informe PISA está otra información, la de restar validez a las pruebas PISA realizadas en el País Vasco debido a errores al almacenar exámenes, unas pruebas realizadas por completo por ordenador , adelantándose a la desaparición definitiva de las pruebas en papel en 2015 y que generó un “incremento de respuestas erróneas” al fallar los dispositivos electrónicos de almacenamiento para guardar los exámenes. Según la prensa y la consejera vasca se perdieron evaluaciones. 
Estadísticas PISA presentadas en el diario El País

El carácter sesgado de la prensa en España con PISA se reflejaba en el intento de presentar a los estudiantes de Madrid como los más competentes en la prueba de Resolución de Problemas de PISA, hasta 30 puntos más que la media española, supera en 10 a la UE y en 7 puntos a la OCDE, además de situarse 19 puntos por encima de Cataluña y rebasar en 11 al País Vasco tal y como recogía el diario El Mundo en su edición digital de 1 de abril de 2014. La conclusión del artículo era la siguiente: los alumnos madrileños "tienen mayor madurez" para aplicar sus conocimientos en la resolución de problemas de la vida real. 

También ese mismo día, ese mismo diario reflejaba en su interior que el alumnado español, estaba también a la cola de la OCDE en resolver asuntos cotidianos. Y ponía el ejemplo de la dificultad que tenían nuestros alumnos y alumnas a la hora de comprar un billete de tren o en manejar y programar aparatos electrónicos complejos cotidianos como un mp3, un robot aspiradora o el termostato del aire acondicionado/calefacción. España ocupaba así el puesto 29 entre todos los participantes (44) en este tipo de pruebas y el 23 si se tuviese en cuenta sólo a los 28 países de la OCDE. El rendimiento de los españoles en las pruebas PISA 2012 en Matemáticas, Lectura y Ciencias también fueron inferiores a las medias de la OCDE, según los datos publicados en diciembre pasado. 
Estadísticas PISA presentadas en el diario El Mundo

Por su parte, en mi tierra, en Andalucía, el debate sobre PISA 2012 quedó en el marco de la política con un Consejero de Educación Cultura y Deporte, Luciano Alonso, lamentando en su intervención en el Parlamento que el ministro Wert haya sido capaz de "empeorar" los resultados del informe PISA correspondiente a 2012. 
En una escala de 500 puntos, Andalucía alcanzaba la puntuación de 477 puntos en comprensión lectora, mientras que en ciencias alcanzaba los 486 puntos y en razonamiento matemático se llega a los 472 puntos. Estos datos, según el consejero, demostraban que Andalucía "avanza más rápido, de forma más intensa y además partiendo de una situación históricamente inferior al resto". 
Según Luciano, este progreso se había debido a que el modelo educativo andaluz que se basa en la "calidad, la inclusión y la equidad", así como en la "implicación" del profesorado, alumnado y familias en el proceso educativo. Todo ello , según Europa Press
Meses más tarde, la Junta de Andalucía renunció a realizar las pruebas externas que se venían haciendo desde hacía años por parte de la Agencia Andaluza de Evaluación Educativa, AGAEVE. 
Estadísticas PISA presentadas en el diario El País



Para completar toda esta información el Diario Córdoba preguntaba a sus lectores digitales el día 2 de abril de este año sí creían que el informe PISA reflejaba la realidad de los escolares españoles. 
Sí fue respondido por un 77.6% de lectores cordobeses, mientras que el No alcanzó el 22.4% 

Sin embargo, y sin entrar en valoraciones políticas o partidistas – que muchas veces están en el transfondo de la información periodística- los datos objetivos y explicativos de los distintos estudios internacionales de evaluación - PISA (OCDE), PIAAC (OCDE), TALIS (OCDE), EECL (UE), PIRLS (IEA), TIMSS (IEA), TEDS-M (IEA) o ICCS (IEA)- por poner algunos ejemplos,  los tenemos detallados con sus respectivos informes, sus resúmenes y sus bases de datos en la web del mecd   por lo que parece más oportuno que en el próximo informe que se detalle lo busquemos en esta web, lo valoremos nosotros, podamos ver sus resúmenes que nos llegan vía Twitter a través de los tuits que los organismos encargados de su difusión, los que – de hecho- están divulgando este curso on-line y por medio de distintos MOOC o de las propias revistas de Educación - tan distribuidas y tan poco leídas en los centros- , y que seamos nosotros los que saquemos conclusiones. 
Imagen obtenida de la web del mecd.gob.es

Un saludo

Mis fuentes de información

Esta ha sido mi entrada en el foro de hoy. Me ha salido extensa, así que he decidido incluirla en el blog del curso, por si alguien está interesado en leerla. 
Son muchas y variadas las fuentes informativas que aportan datos sobre los logros o las dificultades del sistema educativo español. Gran parte de esas fuentes, en gran medida periodísticas, se hacen eco de los informes internacionales de evaluación, no sólo de la educación en España. sino también de otros países. 
Estos informes recogidos por los medios de comunicación permiten establecer comparaciones con otros sistemas o modelos educativos. Lógicamente, son medios informativos por lo que, en ocasiones, en su análisis se adivina un marcado sesgo editorial. 
Es bien conocido como las referencias a nivel internacional - dados sus buenos datos en los informes internacionales , especialmente en el Informe PISA, - colocan al modelo finlandés como el modelo más conseguido en materia educativa, dados sus buenos resultados en las pruebas internacionales. La radio, la televisón y , sobre todo, la prensa escrita habla de las bondades del modelo finlandés, así como del éxito de los modelos asiáticos en el aprendizaje de las ciencias y, especialmente, de las matemáticas. Aparentemente , según se lee en prensa o se escucha en la radio, éste, el asiático, es un modelo con buenos resultados, pero excesivamente competitivo. Concretando, es la prensa escrita, especialmente los diarios de tirada nacional - El mundo y El País- los que , tradicionalmente, han sido mis principales fuentes informativas. A estos se le suma , en menor medida, la radio. 
Sin embargo, reconozco que últimamente mi principal fuente de información se encuentra en una red social, concretamente en twitter. En concreto, han sido muchos los tweets firmados por organismos e instituciones educativas como Educación INEE, el MECD, Educación INTEF, OCDE en español, entre otros, o los tweets vinculados a entidades como Educación TIC, EDuc@Tic, Innovación Tecnológica , Educación 2.0, Escuela 2.0.com , Revista Educación 3.0, Docente Dospuntocero, Eduteca, Educamos.org, o personas muy activas y con conocimiento de causa en Twitter como Ismael Sanz, Carmen Pellicer o Isabel González los que han me dado cumplida información de estos informes de evaluación educativa internacional, pero también de otros muchos aspectos relacionados con la Educación - con , en muchas ocasiones, interesantes propuestas de mejora incluidas. 
Por lo tanto, y para finalizar, la apuesta informativa está , para mí y pensando en el futuro, en las redes sociales. Y, siempre sin olvidar un aspecto: que la información es poder, y que además es el motor para que se produzcan cambios que encaminen a la mejora educativa. 
Un saludo

jueves, 27 de noviembre de 2014

En las redes sociales

Como he venido presentando en la entrada anterior dentro de todas las evaluaciones internacionales existentes en materia educativa me ha llamado la atención especialmente la PIAAC. Tan interesante me ha parecido que no he tenido problema en reconocer a través de mi cuenta en twitter - fjrbalsera- que:
"Resulta interesante saber que la evaluación internacional no ignora la formación de personas adultas. Para ello está el PIAAC". 
 Imagen obtenida de blog.educalab.es

Las principales evaluaciones internacionales

Tal y como comenté en la entrada anterior la necesidad de aprender y evaluar nos obliga igualmente a autoevaluar nuestro modelo educativo, no con el objeto de competir, entiendo yo, sino con el objetivo de valorar lo que funciona y , también, lo que no funciona. Por ello es necesario que nos interesemos en este blog por la evaluación en secundaria - esa será en un futuro su finalidad- , e intentar conocer la verdadera dimensión de los modelos de evaluación internaciones que responden a siglas tales como PISA, TALIS, TIMSS, PIRLS o PIAAC. 
Ya en el video de este primer tema hemos conocido de boca de sus propios encargados lo que es PISA, TIMSS y PIRLS. 
Imagen obtenida de huffingtonpost.es

El Programa Internacional para la Evaluación de Estudiantes , que genera el famoso informe PISA conocido por sus siglas en inglés, Programme for International Student Assessment, se basa en el análisis del rendimiento de estudiantes a partir de unas pruebas que se realizan periódicamente en varios países de los cinco continentes con el fin de determinar la valoración internacional de los alumnos. Este informe es llevado a cabo por la OCDE. Esta institución es la encargada de la realización de pruebas estandarizadas a estudiantes de 15 años. 
 Imagen obtenida de blog.educalab.es
Este programa es el más conocido , pero no es el único , pues junto al mismo existen otros como el TIMSS, que consiste en el Estudio de las Tendencias en Matemáticas y Ciencias (del inglés Trends in International Mathematics and Science Study). Junto a este otro, el que se centra en el Estudio Internacional de Competencia en Lectura (del inglés Progress in International Reading Literacy Study, PIRLS). 
El primero de los dos, el TIMSS, es una evaluación internacional de conocimientos de matemáticas y ciencias de los estudiantes y que fue desarrollado por la Asociación Internacional para la Evaluación del Rendimiento Educativo (IEA), para evaluar en gran medida la competencia matemática y la capacidad cientítica del alumnado, mientras que el segundo, el PIRLS se centra en el desarrollo de la competencia lingüística. 
Con todo lo que reconozco que me ha llamado especialmente la atención la existencia de otro programa , el PIAAC, centrado en las destrezas de la población adulta entre los 16 y los 65 años. Dicho programa mide las destrezas cognitivas básicas que permiten a las personas adultas participar en la vida social y económica del siglo XXI y también las habilidades laborales básicas que les exige su puesto de trabajo. La meta del equipo internacional PIAAC es proporcionar, según aparece en la página de MECD, a los gobiernos de los países participantes un retrato de su fuerza de trabajo: los niveles de conocimientos y destreza de la población adulta, la distribución de las capacidades laborales, el grado de retorno de la educación y la formación en términos individual y social, y la disminución y pérdida del nivel de destrezas a medida que la población trabajadora se aproxima al ocaso de su vida laboral. Para ello, se recoge información sobre los antecedentes personales de la población seleccionada en la muestra, además de información sobre las exigencias del puesto de trabajo, el uso de tecnologías de la información y la comunicación y, en general, el nivel de comprensión lectora y la capacidad de cálculo.
Un saludo

Aprender y Evaluar


 Imagen obtenida de blog.elpais.com


Aprender y evaluar son los procesos estrechamente relacionados con la actividad docente. La mera existencia de un curso on line que lleve por extraño título “Preguntas de PISA y TIMSS: una referencia para evaluaciones nacionales y para práctica en el aula”es algo que, en sí mismo, refleja de manera clara la necesidad de conocer algo, en este caso el tan manido informe PISA - por ejemplo-, pero que reconocemos como el final de un proceso, pero del que no tenemos muchas referencias del por qué o del cómo se hace. Esa necesidad de conocer, y convertir ese conocimiento en algo empírico, práctico, es lo que nos ha llevado hasta aquí para conocer la auténtica dimensión de una gran sopa de letras que contiene vocales y consonantes, pero que tras las mismas subyace el deseo de mejorar  nuestra práctica docente.

Es por eso que nos vamos a interesarnos en este blog por la evaluación en secundaria e intentar conocer la verdadera dimensión del siglas tales como PISA, TALIS, TIMSS, PIRLS o PIAAC. 
Ya en el video de este primer tema hemos conocido de boca de sus propios encargados lo que es PISA, TIMSS y PIRLS. 
Imagen obtenida de huffingtonpost.es

El Programa Internacional para la Evaluación de Estudiantes , que genera el famoso informe PISA conocido por sus siglas en inglés, Programme for International Student Assessment, se basa en el análisis del rendimiento de estudiantes a partir de unas pruebas que se realizan periódicamente en varios países de los cinco continentes con el fin de determinar la valoración internacional de los alumnos. Este informe es llevado a cabo por la OCDE. Esta institución es la encargada de la realización de pruebas estandarizadas a estudiantes de 15 años. 
 Imagen obtenida de blog.educalab.es
Este programa es el más conocido , pero no es el único , pues junto al mismo existen otros como el TIMSS, que consiste en el Estudio de las Tendencias en Matemáticas y Ciencias (del inglés Trends in International Mathematics and Science Study). Junto a este otro, el que se centra en el Estudio Internacional de Competencia en Lectura (del inglés Progress in International Reading Literacy Study, PIRLS). 
El primero de los dos, el TIMSS, es una evaluación internacional de conocimientos de matemáticas y ciencias de los estudiantes y que fue desarrollado por la Asociación Internacional para la Evaluación del Rendimiento Educativo (IEA), para evaluar en gran medida la competencia matemática y la capacidad cientítica del alumnado, mientras que el segundo, el PIRLS se centra en el desarrollo de la competencia lingüística. 
Con todo lo que reconozco que me ha llamado especialmente la atención la existencia de otro programa , el PIAAC, centrado en las destrezas de la población adulta entre los 16 y los 65 años. Dicho programa mide las destrezas cognitivas básicas que permiten a las personas adultas participar en la vida social y económica del siglo XXI y también las habilidades laborales básicas que les exige su puesto de trabajo. La meta del equipo internacional PIAAC es proporcionar, según aparece en la página de MECD, a los gobiernos de los países participantes un retrato de su fuerza de trabajo: los niveles de conocimientos y destreza de la población adulta, la distribución de las capacidades laborales, el grado de retorno de la educación y la formación en términos individual y social, y la disminución y pérdida del nivel de destrezas a medida que la población trabajadora se aproxima al ocaso de su vida laboral. Para ello, se recoge información sobre los antecedentes personales de la población seleccionada en la muestra, además de información sobre las exigencias del puesto de trabajo, el uso de tecnologías de la información y la comunicación y, en general, el nivel de comprensión lectora y la capacidad de cálculo. 
Tan interesante me ha parecido que no he tenido problema en reconocer a través de mi cuenta en twitter - fjrbalsera- que "Resulta interesante saber que la evaluación internacional no ignora la formación de personas adultas. Para ello está el PIAAC". 
 Imagen obtenida de blog.educalab.es