WonkaPistas

18.4.06

Los insiders en contra de la transparencia de los resultados de la enseñanza

En estas últimas semanas, sindicatos de profesores y asociaciones de directores de centros de primaria de la Comunidad de Madrid se han pronunciado en contra de la publicación de los datos de la futura prueba de 6º de Primaria por centros. Han estado de acuerdo en que se publiquen de manera agregada, pero han criticado la elaboración de una lista con las puntuaciones de cada centro con argumentos similares a los que critiqué en una anotación de octubre del año 2005. Un ejemplo de estos argumentos lo ofreció el Consejo de Directores de Centros Públicos de primaria de la Comunidad de Madrid en una nota de prensa del 31-3-2006 (no está en la web). Vean:

Los Directores y Directoras de Colegios Públicos consideran que:

1.- Si es el objetivo verdadero es el de mejorar no se deben publicar.

2.- Si el objetivo real es enjuiciar, comparar y provocar confusión en la población, dirigir la decisión de las familias, animar a traslados de alumnos y hasta de maestros, criminalizar Centros, en definitiva provocar enfrentamientos entre centros, profesores, familias, ETC. entonces deben publicarse.

3.- Por el resultado de una prueba (que no consideramos ni equilibrada, ni estadísticamente válida, ni fiable ni predictiva de nada, que no discrimina el nivel de partida de competencia lingüística en castellano de los alumnos que la realizan, y que es igual para alumnos discapacitados físicos, psíquicos, sensoriales, de compensatoria, de otras nacionalidades con desconocimiento del idioma, ni tiene en cuenta los contextos socioculturales de origen de los alumnos en porcentajes muy altos en los centros públicos), no se puede inferir nada significativo, ni concluir medidas de corrección, Planes Generales de Conocimientos o Destrezas y estándares esenciales vacíos de contenido real.

4.- El ranking de Centros que se elabore con los datos que se publiquen es falso, irreal, y está viciado de partida. Sólo servirá para confrontación política y para destruir la credibilidad en los Colegios y el respeto y la confianza en los maestros.

Es un elemento de engaño social que nos parece premeditado. Por ello como responsables de los Centros, creemos que sería irresponsable tal publicación, por la especial sensibilidad con que hay que trabajar en el ámbito educativo, por la alarma social injustificada que se causa, y por la más que probable manipulación que con dichos datos se va a repetir de nuevo este curso. Es minar de inicio la “cultura de evaluación externa” que pretendíamos iniciar. Sería similar a si nosotros publicásemos en los tablones de anuncios de la calle los nombres y apellidos de cada alumno diciendo qué nota han sacado, quién se ha hecho pis en el colegio ó quién no ha tenido dinero para ir a tal excursión. Destruiría su poca autoestima y lo que pretendemos potenciar: CONFIANZA Y RESPETO.
No voy a repetir los argumentos que ya expuse, y que son de total aplicación a la nota de los Directores. A mí me parece, en última instancia, que se trata de unos insiders intentando hurtarnos a los outsiders la poca información que se produce desde el sistema escolar y que puede servirnos para intentar empezar a plantearnos con un poco más de fundamento la elección de colegio (o la participación en el gobierno de éstos).

Por ahora, parece que otro insider, la Consejería de Educación de la Comunidad de Madrid, ha cedido a esas críticas y no publicará los resultados por centros. No me extraña. Por una parte, es muy difícil hacer esa prueba si tienes en contra a quienes habrán de aplicarla. Por otra, tampoco los gobiernos, de ningún color, están dispuestos a permitir una auténtica elección escolar, ni aquí ni en Estados Unidos. Les va la marcha de la planificación y del decidir por nosotros. Eso sí, alguna informació sí que tendremos. Como dice el Consejero de Educación, Luis Peral:

"...un padre de Leganés podrá conocer los resultados de su hijo, los del colegio de su hijo, la media de Leganés y la media de la Comunidad"

Como padre directamente afectado (y de Leganés, por más señas), le digo al señor Peral que muchas gracias, pero no: queremos todos los datos, y ya veremos nosotros lo que hacemos con ellos. ¿O acaso son suyos y de los sindicatos?

26 Comments:

  • Deberias dejar este tema en alguna especie de seccion fija de tu bitacora donde fueses ampliando mas este asunto,tratando de contactar con padres y asociaciones que piensen como tu.
    Si los insiders triunfan es por que estan organizados,dominan los medios y chantajean a los politicos.
    ¿Sabes si hay alguien que este haciendo esto ya?

    By Anonymous Anónimo, at 4/18/2006 11:17 p. m.  

  • Anónimo. Gracias por la sugerencia. Hasta ahora, no hay mucha gente pidiendo transparencia. En Red Liberal sí encontrarás bastantes bloggers solicitando mejorar la libertad de elección de los padres. En prensa, sin embargo, encontrarás muy poco, con la honrosa excepción del semanal Magisterio Español (www.magisnet.com).

    By Blogger Wonka, at 4/19/2006 7:41 a. m.  

  • Wonka: crear un blog para gregar todos los centros y/o grupos es tan fácil... seguro que en pocas semanas tienes los de todos los centros...

    By Blogger Unknown, at 4/19/2006 10:42 a. m.  

  • Luis. Es buena idea. Lo pensaré. La verdad es que debe de ser algo muy sencillo, aunque estaría bien facilitar a los que colaboren el introducir la información--y para eso, el menda es bastante paleto. Tendré que ir a uno de tus cursos :-)

    By Blogger Wonka, at 4/19/2006 10:57 a. m.  

  • La idea de que la información es perjudicial para los cuidadanos es algo muy arraigado. Este post me ha recordado a las limitaciones que impone la Unión Europea a la publicidad sobre según qué fármacos, no vaya a ser que podamos tomar decisiones con conocimiento de causa.
    Quizás un buen modo de romper esta política de silencio sería generar alguna página web en la que aquellos padres que accedieran a la información sobre su centro la facilitaran al resto. A mí, desde luego, esto me queda grande...
    Otra opción es redactar algún pequeño escrito, que podamos firmar quienes estemos de acuerdo con esta postura, y remitarlo a algunos medios de comunicación.
    Me consta que alguna gente de Magisterio Español te lee. Quizá ellos, más curtidos en estas lides, tienen alguna idea.

    By Anonymous Anónimo, at 4/19/2006 12:39 p. m.  

  • Wonka. Yo estoy de acuerdo en que siempre es mejor que la información esté disponible para todos. Pero también hay que asegurarse de que lo que circula por ahí es realmente veraz (sirve para reflejar una realidad), evitando así conclusiones erróneas.

    1) Hace falta garantía de igualdad de condiciones y seguridad al hacer las pruebas. Con el examen del año pasado me llegaron comentarios de colegios en que los profesores daban respuestas a los alumnos para subir la nota del centro. Me hablaron en particular de un colegio público en la ciudad en la que vivo.

    2) Si se publica un ranking es necesario incluir información sobre situaciones especiales. Por ejemplo, colegios en los que el número de estudiantes extranjeros supere ciertos porcentajes. Colegios situados en barrios marginales, etc. También hay que saber datos sobre la fecha de creación de los colegios. No tiene sentido "evaluar" con estas pruebas un centro que lleve sólo uno o dos años abierto (sus alumnos provienen, entonces, de otros muchos centros).

    Que nadie me malinterprete. Estoy a favor de que se publiquen los datos. Pero también me gustaría que fuesen datos más fiables y con garantías. Es decir, datos más útiles y contextualizados.

    By Blogger Fabián, at 4/19/2006 3:57 p. m.  

  • Fabián. Estoy de acuerdo con la idea de velar por la seguridad de las pruebas. Probablemente, debería mejorar.

    Sobre la publicación del ranking. En principio, no se trata de un ranking, sino de un listado de centros, con sus notas medias en Lengua, Matemáticas y demás. No estaría mal que hubiera datos añadidos para cada centro (antigüedad, proporción de extranjeros, nivel socioeconómico, lo que quieras). Pero lo que yo digo es que esos datos los suplirán, de manera cualitativa, los padres que, efectivamente, tengan en cuenta los resultados de la prueba en sus decisiones acerca de la escuela de sus hijos. Para ellos será un dato más, que añadir a otros que obtienen localmente. Digamos que esos padres se ocupan, por su cuenta, de poner el contexto.

    By Blogger Wonka, at 4/19/2006 4:11 p. m.  

  • Estoy de acuerdo con Fabián en que uno de los problemas de la prueba es que se diseñó mal, y de ahí vienen algunos de sus problemas. Pero también es otro problema el que no tengamos los datos alumno a alumno (anónimos, por supuesto, pero me gustaría ver percentiles y cosas así, no solo medias), y esas se las tienen bien guardaditas.

    Según mis cálculos, después de examinar las pruebas de Madrid y Castilla-La Mancha se puede decir que el 45-50% de los alumnos acaban la Primaria sin estar preparados para cursar la ESO (por eso, en la LOE bajan el nivel de 1º de ESO, en vez de subir el nivel de Primaria: indica mucho de las intenciones de la Ley).

    Eso es lo relevante, y que hay centros que nos cuestan muchos miles de euros anuales y que año tras año incumplen la función que tienen encomendada (y no digo que el centro tenga la culpa, cuidado). Como dice Andreas Schleicher, el responsable del informe PISA: Pero, ¿a quién beneficia que un mal centro continúe abierto?

    By Blogger teramenes, at 4/19/2006 6:12 p. m.  

  • Como "profe de secundaria", lo reconozco, me aterroriza la idea de que se publiquen tales resultados. Mi preocupación se debe, quizás, a mezquinas razones "gremiales", pero, en la medida en que soy consciente, se deben más bien a mi absoluta desconfianza sobre la validez que puedan tener los resultados de tales pruebas.

    A ver si me explico. Yo parto del temor de que la futura prueba tendrá una fiabilidad muy parecida a la que puede tener la actual "selectividad". Pues bien, no hay nada más aleatorio que los resultados de tal prueba. Año tras año, los resultados de mis alumnos me deparan sorpresas gordísimas. Algún año mis alumnos han llevado una media de dos puntos más (sobre diez) respecto a la nota que yo les había puesto, y otros años han llegado a tener cinco puntos menos (sí: ¡cinco puntos!). Lo que me pasa a mí le pasa a la mayoría de mis compañeros. Creo que ahora no estoy haciendo "sociología de proximidad" porque mi "muestra" a este respecto tiene cierta representatividad: llevo casi veinte años en el oficio y he trabajado en seis centros distintos (mi cónyuge, por su parte, cuyas experiencias a este respecto corroboran las mías, ha ejercido en otros seis centros de dos comunidades autónomas distintas). Que la gente, por favor, haga memoria de lo que sucedió entre sus compañeros de la selectividad: Yo conozco a dos personas que acabaron la carrera con premio extraordinario..., ¡y habían suspendido la selectividad! (pese a tener muy buenas notas en el bachillerato). Perdón por haberme extendido en esto, pero una de mis obsesiones es la selectividad. Estoy absolutamente de acuerdo con que los exámenes externos son muy necesarios (yo pondría uno cada año...), pero la selectividad se organiza con una ligereza escandalosa: ¿cómo se puede hacer depender de una prueba tan aleatoria el futuro profesional de la gente?

    Pese a todo, y pese a mis temores, sigo pensando que la publicación de los datos es casi casi un imperativo categórico. Incluso podría ser, al final, lo que iniciara el remedio, a condición de que los datos se dieran de forma completa: si se viera claramente cuál es el nivel de desviaciones entre las notas del bachillerato y las de la selectividad, o se viera cómo un centro puede ser un año el que obtenga mejor nota media en la selectividad, siendo el anterior (o el siguiente) uno de los que tienen medias más bajas, etc. etc.

    By Anonymous Anónimo, at 4/20/2006 12:25 a. m.  

  • Por suerte, hay modos de evaluar la fiabilidad de las pruebas. La psicometría da para eso y para más. De hecho, es tan básico que está entre los contenidos que estudian los alumnos de Psicología en el primer ciclo de la carrera. Lo mismo puede decirse de la validez: hay técnicas accesibles para estudiarla.
    Efectivamente, con los datos que nos ofreció la CAM tras la prueba de nivel del curso pasado, en lugar alguno se podían consultarse los indicadores al uso para medir la fiabilidad. Al menos, yo no los vi.
    Pero hay que darle a los problemas de fiabilidad el peso que tienen. La fiabilidad indica el nivel de error que tiene nuestra medida. A más fiabilidad, menor error. Escasa fiabildiad hace que los resultados para un chaval en concreto sirvan para muy poco. Ahora bien, como los errores de medida se distribuyen aleatoriamente, con media cero, a medida que mi unidad de análisis está compuesta por más sujetos (paso del chaval a la clase, de la clase al centro, etc), el error de medida más se aproximará a cero. Por tanto, una prueba poco fiable puede no servir para hablar de una persona en particular, pero sí para sacar conclusiones de un colectivo.
    (Los errores no distribuidos aleatoriamente también se pueden evaluar. Si una prueba está sesgada en contra de un colectivo, eso se puede detectar. Hay buenos especialistas precisamente en Madrid sobre esto).
    Por otro lado, es común que en muchos de estos estudios se infrautilicen los datos recogidos. Por ejemplo, en el informe de 'Evaluación de la Educación Primaria 2003' del INECSE se aplica una estadística sencillita, que no saca todo el partido que resultaría posible. (Reconozco inspección superficial del texto, pero no he visto en algún resumen leído que se haya hecho nada más allá de un ANOVA).
    Esto, precisamente, enfatiza la necesidad de que los datos se hagan públicos. Tal y como está la situación, ni siquiera sabemos si la prueba de nivel de la CAM es fiable, se gasta una barbaridad de dinero en el INECSE con los que se generan cientos de páginas de análisis sencillos... y no podemos hacer nada, por carecer de los ficheros de datos. Es un poco como la sabiduría de los monasterios de la Edad Media, a buen recaudo, pero mal distribuida.

    By Anonymous Anónimo, at 4/20/2006 2:05 a. m.  

  • En el fondo estoy de acuerdo con Athini, en el punto referido a la relación entre notas de Selectividad y de Bachillerato. Por lo que yo sé, se trata de datos a buen recaudo que sólo algún periodista insistente y avezado publica en Magisterio. Y no estaría nada mal, para saber de la efectividad de los centros, conocer tanto su matrícula de 2º de Bachillerato, como el número de los que se presentan a Selectividad, como el número de los que aprueban, además de las notas medias en Bachillerato y Selectividad. ¿Es mucho pedir esto?

    Y también estoy de acuerdo con Juan Ramón en la necesidad de que el Inecse "libere" sus datos de una vez, para poder hacer algo más que un ANOVA.

    Pero, aparte de todo esto, soy partidario de que se publiquen los datos por centros, aunque no sean los mejores datos, aunque le falte el contexto. Pues no se trata, sólo, de hacer análisis estadísticos, sino de que cada familia tenga una información más para basar sus decisiones. Téngase en cuenta que esas familias no van a tomar decisiones "modelizada" o "econométricamente": las van a tomar "olfativamente" (perdón por la mala metáfora), y para mejorar su olfato de qué colegio conviene mejor a sus hijos les viene bien cualquier nueva información.

    By Blogger Wonka, at 4/20/2006 8:01 a. m.  

  • El argumento es un tanto débil, no? Mejor dar información sesgada que no darla. No, hombre, hay modelos para le evaluación del valor añadido. En España, el de IDEA. Claro que suelen decir que una vez corregido el peso de los factores iniciales, la aportación de valor de los centros privados no es superior al de los públicos. Lo mismo a la consejería de Madrid no le interesa aportar ese argumento en contra de la privada, y prefiere solo dar ese dato sesgado.
    Lipe (http://divergencias.typepad.com)

    By Anonymous Anónimo, at 4/20/2006 10:50 a. m.  

  • Lipe. Veo que no me explico nada bien. Yo no estoy hablando de la diferencia entre centros privados y públicos. A mí eso me da igual en este momento. Estoy hablando de centros individuales, sean públicos o privados. No estoy hablando de comparación entre públicos y privados, sino de que si yo tengo que elegir entre 10 ó 20 colegios en Leganés, tenga algunos datos más de esos colegios que las informaciones que haya podido recabar hablando con la gente.

    Repito una vez más: el contexto lo pongo yo, en la medida en que pueda. Yo puedo averiguar por mi cuenta si el barrio es más o menos problemático, si el número de inmigrantes es alto o bajo, cosas así. Y tenerlas en cuenta a la hora de juzgar esas notas.

    Sobre la medida del valor añadido, es un tema complicadísimo y dificilísimo de hacer.

    Por cierto, me gustaría que me dijeras en qué publicación de IDEA (o con datos de IDEA) se ve tan claramente eso que dices de que el valor añadido de los públicos es similar al de los privados una vez controladas las variables de rigor. Que yo sepa, no hay ninguna. Por lo pronto, las muestras de colegios que los de IDEA utilizan no son representativas.

    De verdad que agradecería esa referencia. La única que yo conozco y que podría acercarse (pero muy poco) a lo que tú dices es: Álvaro Marchesi y Elena Martín, comps., Evaluación de la enseñanza secundaria. Fotografía de una etapa polémica (Madrid, Fundación Santa María, 2002).

    By Blogger Wonka, at 4/20/2006 11:19 a. m.  

  • Hola, Wonka.

    Quizás no hables en términos de público-privado, pero 1) la lectura que va a realizarse a nivel de medios es esa, 2) los centros públicos, uno a uno, caso a caso, serán los dañados-señalados. No lo harás tu como decisor, pero el impacto es ese.
    Indicas: el contexto lo pongo yo. No, hombre, si pides claridad para la toma de decisiones, hazlo completo, y que te den los datos corrigiendo ese efecto. Si no son capaces de darlos completos, que no los den, ya que ocurre lo que te comentaba en el párrafo anterior.
    Y sobre el modelo, desde luego IDEA lo tiene para “descontar” el efecto de las condiciones de partida. Sobre los resultados que te indico, creo haberlo leído en el libro que indicas, o quizás uno previo de Marchesi de “color rosa”. Lo tendría que mirar en casa. Sobre la no representatividad de la muestra de IDEA, efectivamente, no lo es. De todos modos, el “sesgo” de ser participante en IDEA lo tienen tanto los centros privados como los públicos que participan.
    Saludos
    Lipe

    By Anonymous Anónimo, at 4/20/2006 11:36 a. m.  

  • Aleluyah, Marchesi habemus!

    El señor que diseñó unas estadísticas de educación tan torticeras que se ha tardado una década en averiguar qué era lo desastroso de la Logse, qué lo mal hecho, y qué lo regular (bueno aún no he encontrado mucho) es el ejemplo de la evaluación española.

    Este señor utiliza datos sesgados, y sus sistema de evaluación es bastante discutible. Además, que yo sepa se dedica a la evaluación interna (y la cobra cara). Tampoco estoy muy de acuerdo con la forma de descontar las condiciones de partida, pues absolutiza lo relativo, y relativiza lo que no le interesa. Y lo que los alumnos saben le importa un bledo.

    Añoro poder disponer algún día de los datos con los que Marchesi justificó la implantación de la Logse. Desaparecieron en cuanto se implantó.

    Respoecto a lo de señalados-dañados, vuelvo a preguntar: ¿a quién beneficia que un centro que no cumple con la función que tiene encomendada siga abierto?

    Ah, y no es cierto que el valor añadido de los privados sea el mismo que el de los públicos, a no ser que te metas en una ecuación de suma cero. Y que existan diferencias justificables por razones socioeconómicas no quiere decir que las diferencias no existan: cansado estoy de decir que la escuela pública hace 20 años se pasaba por el forro las diferencias sociales, y consiguió que mi generación fuera la mejor formada de la historia de España si sumamos cantidad y calidad. Y que 20 años después, las dos generaciones subsiguientes siguen por debajo de la mía. La Logse es la que ha impedido la igualación de oportunidades que consiguió mi generación.

    No entiendo que alguien me diga que una injusticia es explicable por razones socioeconómicas y se quede ahí. Esa es una pose intelectual, y punto.

    Marchesi. ¡Anda ya!

    By Blogger teramenes, at 4/20/2006 12:57 p. m.  

  • Supongo que para ciertas estadísticas tendrá su interés conocer los resultados "medios" de toda la clase o de todo el centro. A mí, sin embargo, lo que me gustaría saber es cuál es la desviación individuo a individuo entre sus notas del bachillerato y sus notas correspondientes de selectividad: creo que esto sería lo único que nos podría dar una indicación real de hasta que punto estamos utilizando varas de medir disparatadas (para cuestiones en las que, después, una décima más o menos permite o no elegir la carrera deseada).

    Por cierto, en cada uno de los centros sí están disponibles las notas de selectividad (con todos los desgloses) de varios años. No sería demasiado difícil hacerse con los resultados de unos pocos centros: a lo mejor esto podía ser de utilidad para una primera "cala" a los especialistas en estadística.

    By Anonymous Anónimo, at 4/20/2006 5:23 p. m.  

  • Wonka, ando buscando la referencia. En el libro que citas he visto a vuela pluma, en el capítulo de Tiana, una referencia en ese sentido, pero no datos. Seguiré buscando el otro libro de Marchesi. Y con eso engancho con el siguiente comentario: 1) La evaluación de los centros no se cobra carísima. En absoluto. Ni de broma. 2) De paso, en ese sentido, críticas personales sobran. 3). Estoy a la espera de que alguien demuestre que la generación de hace 20 años salía más formada, en calidad y cantidad, cuando la escolarización obligatoria se ha extendido dos años y el acceso a la universidad es masivo. Nuestros resultados en PISA están a la altura de nuestro PIB y nuestra inversión en educación (perdón por la autocita, pero lo tienes aquí: http://divergencias.typepad.com/divergencias/2005/07/el_informe_pisa_2.html ). La sensación entre los padres es de mejora del sistema educativo (datos en ese mismo link), de forma generalizada pese a todos los mensajes alarmistas y catastróficos.
    Lipe

    By Anonymous Anónimo, at 4/20/2006 8:25 p. m.  

  • Si la escolarización se ha extendido dos años, ¿cómo es posible que el porcentaje de alumnos de 17 años que continúan estudiando haya bajado en los últimos años, y ya es menor en 2004 que en 1996, cuando a esa edad aún estudiaban por la LGE (véanse las estadísticas del MEC)? Debe ser uno de los grandes logros de la Logse.

    Dos, se cobra carísima desde el momento en que se paga dos veces: una, los numerosos inspectores que el Sr. Marchesi puso a realizar tareas burocráticas en vez de su auténtica labor; dos, a los bolsillos de IDEA. Y conozco las facturas, del Sr. Marchesi, y me parecen caras para sus resultados. Pero eso ya es apreciación personal. Por cierto, ¿tú no eres de los de "el dinero público para los centros públicos"?

    Por cierto, y sobre el PIB: ¿alguien me puede explicar cómo, si España ha mejorado ostensiblemente su PIB entre 2000 y 2003, y habiéndose mantenido en esos años el gasto educativo en relación al PIB (según eurostat) hemos obtenido peores resultados en PISA 2003 que en PISA 2000?

    Si quieres hecer una prueba de nivel educativo, coge un exámen de Matemáticas de 2º de BUP en 1985, y se lo pones a unos alumnos de 2º de Bachillerato Logse (para el que no lo sepa, ya sé que Lipe sí, hay dos años de diferencia). Si quieres, tengo guardados algunos. Puedes llorar un rato.

    Por sus obras los conoceréis: ¿dónde piden los padres llevar a sus hijos? ¿a la pública?

    Ah, y no creo que decir que a Marchesi los resultados le importan un bledo sea personal. Sólo lo estaba citando, por que eso se lo he oído yo, personalmente. Otra cosa es que ya no quiera acordarse...

    By Blogger teramenes, at 4/20/2006 9:03 p. m.  

  • Esperanza Aguirre suspende en educación:

    http://www.accioneducativa-mrp.org/reformaeducativa/nuevo/documentos/AEantelapruebadesexto.pdf

    Aquí podéis ver las razones de la Federación de Movimientos de Renovación Pedagógica de Madrid a rechazar la prueba de nivel de 6º de primaria. A mí me lo han dado en las Jornadas de CC.OO. sobre 'Evaluar sin excluir'.

    http://www.usmr.ccoo.es/frem/jornadasEvaluacion.htm

    By Anonymous Anónimo, at 4/21/2006 12:29 a. m.  

  • Juan Ramón, tienen razón en que la prueba está muy mal hecha, y en que es una desvergüenza hacer esta prueba y no presentarse al PISA. Y en que gran parte de los errores se deben a ideas poco acertadas de Alicia Delibes, directora general de Ordenación Académica.

    Por supuesto, les falta razón en otras muchas. No sería la primera vez que defiendo o alabo a Mercedes Ruiz Paz en este blog. Y, ¡qué facilidad para el insulto ideológicamente amparado! (que son profesores, y muchos de infantil, por Dios). Otros argumentos se descalifican por sí mismos. Suelen ser contrarios a cualquier tipo de evaluación externa.

    Por cierto, ¿por qué no se les propone apoyar la apertura de las bases de datos del Inecse, al que por cierto alaban? Te sorprenderían sus argumentos.

    By Blogger teramenes, at 4/21/2006 12:59 a. m.  

  • Con mi comentario anterior, no quería plantear postura propia alguna, sino, simplemente, incluir un par de enlaces que consideraba que resultaban de interés para el tema.

    Ahora, la opinión personal: es más que probable que la prueba de la CAM sea de muy cuestionable calidad métrica. No hay modo de saberlo, ya que no se ofrecen datos.

    En todo caso, falla algo fundamental cuando se aplican estos tests: la estandarización en las condiciones de aplicación. Normal cuando te están torpedeando desde dentro (con o sin razón) y cuando tus conocimientos sobre evaluación educativa tiene pinta de que son limitados.

    En el discurso de los 'insiders' contra-CAM, se cantan las excelencias del informe PISA. Desde luego, la calidad y rigor del mismo están claros. Ahora bien, no veo para qué queremos embarcar a todas las CC.AA. en este informe, con el gasto que supone, cuando tenemos los datos del INECSE y no estamos dispuestos a darlos desagregados.

    El estudio de la CAM y el informe PISA difieren, igualmente, en un aspecto fundamental. El primero es 'censal', todos los chavales que estaban en clase el día de la prueba pasan por él. El segundo es 'muestral', se escoge una muestra representativa del país para evaluarlo.

    Evidentemente, las decisiones que se pueden tomar con uno y con otro son bien distintas, suponiendo igualdad en la calidad de los estudios. Con un estudio censal, los padres pueden tomar decisiones. Con un estudio muestral, los responsables políticos pueden tomar decisiones educativas. No es pequeño el matiz.

    En todo caso, me cuestiono en qué medida estaríamos dispuestos a asumir las conclusiones que se extraen de los distintos informes que se van generando. Por ejemplo, en el informe del INECSE (Primaria 2003), se habla de que los colegios dirigidos por licenciados consiguen mejores resultados que los dirigidos por diplomados. ¿Vamos a forzar que todos los directores tengan que ser licenciados? Ahí también se habla de que a mayor evaluación continua, peores resultados académicos. ¿Haremos algo al respecto? En el INECSE se habla de que, controlando variables socio-económicas, los privados obtienen mejores resultados que los públicos. ¿Alguien le ha dado importancia a este resultado? En el último PISA se habla de la poca importancia que tiene en los resultados medios de los centros en España el origen socio-económico del alumnado. También se manifiesta la poca importancia en el rendimiento del gasto por alumno ¿Por qué se sigue oyendo una y otra ideas por ciertos colectivos que parecen no haberse enterado de esto?

    También fallan por ciertos colectivos entendimiento básico de lo que significan estos estudios y las posibilidades de intervención. Resulta claro que el nivel de estudios de los padres es un buen pronosticador del nivel de rendimiento de los hijos, mejor predictor que si el centro es público o privado. Por ello algunos consideran que hay que centrarse, por su mayor impacto en los resultados, en la variable... ¡que no resulta manipulable!

    By Anonymous Anónimo, at 4/21/2006 11:32 a. m.  

  • Ya entendí que tu opinión no era la de este grupo relacionado con los Movimientos de Renovación Pedagógica. Creo que mezclan churras con merinas para oponerse a la prueba, y que cogen argumentos sensatos para apoyar a los ideológicos: pero que si se cumplen los sensatos, seguirían negándose a las evaluaciones externas.

    Estoy de acuerdo contigo en que resulta descorazonador la resistencia a dejarse guiar por la evaluación (si lo hicieran, no habrían aprobado la LOE). Más descorazonador resulta el empeño de tomarse la evaluación como una cuestión política, como parece que hacen en Andalucía. Resulta descorazonador que existan unos datos muy valiosos y que por imperativo político no se puedan aprovechar, como los del Inecse. En fin, queda mucho por hacer.

    By Blogger teramenes, at 4/21/2006 3:24 p. m.  

  • Por ejemplo, en el informe del INECSE (Primaria 2003), se habla de que los colegios dirigidos por licenciados consiguen mejores resultados que los dirigidos por diplomados. ¿Vamos a forzar que todos los directores tengan que ser licenciados?

    ¿Cuál es la distribución? Que en media los colegios dirigidos por licenciados sean mejores no quiere decir que cualquier colegio dirigido por un licenciado sea mejor que cualquier colegio dirigido por un diplomado. Y aun teniendo la correlación habrá que ver cuál es el sentido de la causalidad, suponiendo que se pueda determinar...

    Dicho de otra forma: espero que la gente que tenga que interpretar los resultados de estas estadísticas (los responsables políticos, por ejemplo) sea consciente de lo que las estadísticas significan y representan... Si sucede así, se reduce el riesgo de que se tomen medidas inadecuadas simplemente porque no se han leído correctamente los datos, ¿no?

    By Blogger Hairanakh, at 4/21/2006 4:10 p. m.  

  • Cuando se dice que una variable mejora el rendimiento, no se quiere decir que todos los que poseen (variables nominales) o tienen más alta puntuación (variables numéricas). Por efecto, cuando se dice que más años de formación suponen mayores ingresos, esto no supone que todos los que hayan pasado 17 años en educación cobren más que los que han pasado 10. La diferencia de medias no anula que pueda haber solapamiento entre las distribuciones. Bien hecho el análisis, decir que una variable mejora el rendimiento lleva aparejada la coletilla de 'descontado el efecto de todas las demás variables'.

    Efectivamente, las líneas causales son difíciles de establecer. La estadística y la teoría necesarias para ello tienen que ser muy robustas. Creo que es posible, siempre y cuando uno cuente con buenos profesionales para hacer el estudio. En el caso del estudio de la CAM, tiene toda la pinta de ser una chapuza. Aún sigue la pregunta abierta de si tenemos derecho a conocer los resultados de un estudio chapucero.

    Pero, sin embargo, mientras que para ciertos resultados y sus implicaciones posibles saltan todas las alarmas metodológicas (por ejemplo, forzar a que los directores tengan que ser licenciados), otros resultados estamos de lo más dispuestos a tragárnoslos. Gran parte de los estudios que se hacen sobre psicología educativa, que después sirven para fundamentar las políticas educativas, son malos, por diseño y por análisis. Por ejemplo, Marchesi publicaba un libro hace poco (Qué será de nosotros los malos alumnos) sobre el fracaso escolar. En el libro planteaba tres vías de fracaso escolar: los distraídos, los revoltosos y los que no se enteran. (Evidentemente, esta no es su terminología). Puestos estos tres grupos, ¡reconoce acto seguido que en los estudios hechos no se distingue a unos alumnos de otros! Introduce una variable teórica fundamental y dice que no en los datos obtenidos esa variable no está recogida.

    Hoy he estado en una charla sobre aprendizaje estratégico. Ahí han mostrado un ejemplo de docencia. Se forzaba a que los alumnos tomaran los apuntes de modo cooperativo y tuvieran que elaborarlos y trabajarlos mucho más. Se introducía feedback por parte del profesor sobre la calidad de los apuntes. La evaluación de esta práctica mostraba que se mejoraban la calidad de los apuntes. Conclusión: qué buena idea. Limitaciones:

    1) Es irrelevante la calidad de toma de apuntes. Lo importante sería demostrar si mejora el aprendizaje.
    2) Tomar apuntes supone trabajar más. Es normal que se aprenda más cuanto más se trabaja en la asignatura. Lo relevante es demostrar que este modo de forzar que la gente trabaje más es mejor que otros modos de forzar que se trabaje más en la asignatura.

    Eso sí, nadie de los ahí presentes ha abierto la boca, no hecho comentario alguno respecto a estos fallos del estudio.

    Resumiendo: la calidad es en general baja. Todos los estudios son criticables, pero sólo criticamos aquellos que contravienen nuestras ideas previas. Y si alguno dice lo que no queremos oír, con no escucharlo todo va bien.

    By Anonymous Anónimo, at 4/21/2006 5:30 p. m.  

  • mientras no se tenga en cuenta el punto de partida anterior a las prubeas, mientras sólo se evalúe la enseñanza tradicional, mientras los profesores no participen en la elaboración de las pruebas... desde luego que no se publiquen,. basta de rankings de centros

    By Anonymous Anónimo, at 4/23/2006 11:50 p. m.  

  • El otro día estuve en una charla en la que se destrozaba la prueba de la CAM. Desde luego, argumentos no faltan, dada la baja calidad de la prueba y la metodología de la evaluación. Pero lo que no escuché un ningún momento fue el derecho de los cuidadanos (financiadores) y de los tutores (usuarios) a conocer la calidad de los servicios para poder orientar sus decisiones. La pregunta es: con un diseño maravilloso, ¿estarían dispuestos los que ahora se oponen a la prueba de la CAM a una evaluación censal y a la publicación de los resultados por centros?
    Me parece que hay quien no asume que no son dueños del sistema educativo.

    By Anonymous Anónimo, at 4/24/2006 10:28 a. m.  

Publicar un comentario

<< Home