lunes, 11 de marzo de 2019

DATA WISE. PASO 2: ALFABETIZAR EN EVALUACIÓN

El material que se reproduce a continuación se tomó del curso en línea. Introduction to Data Wise: A collaborative Process to Improve the Learning & Teaching en EdX HarvardX: GSE3x; reproducirlo tiene la intención de que otros estudiosos de los procesos de enseñanza y aprendizaje amplíen sus horizontes y transformen su practica educativa. 

La traducción es de los autores del curso Kathryn Parker Boudett, Elizabeth A. City y Richard J. Murname. La adaptación "desarrollar conocimiento en evaluación" es personal. 


Enlaces relacionados.

DATA WISE. PASO 1: Organizarse para el trabajo colaborativo


DATA WISE: PASO 3. Crear un Panorama General de Datos.



STEP 2: BUILD ASSESSMENT LITERACY

PASO 2: ALFABETIZACIÓN EN EVALUACIÓN // DESARROLLAR CONOCIMIENTO EN EVALUACIÓN. 



OVERVIEW / RESUMEN



The Prepare Phase of the Data Wise Improvement Process is designed to provide a solid foundation for collaborative inquiry. It’s comprised of two steps.

The first step, as we discussed earlier, involves establishing teams and schedules that support collaboration, setting the tone to make sure that collaboration is effective, and taking stock.

In Step 2 –Build Assessment Literacy – you and your colleagues dive into your data inventory and develop the skills you will need to understand the assessment listed there.

Building Assessment Literacy is important because it ensures that you have the background you need to move into the Inquire Phase.

Before I start talking about assessment literacy, I want to be clear on what I mean by “assessments.”

So some of the assessments on your data inventory may be high-stakes exams that are used for external accountability. Others may be benchmark tests that are given throughout the year to track progress and learning standards. And don’t forget about all the other kinds of writing, speaking, problem-solving assignments, that teachers develop and score collaboratively. All of these are assessments.

We define “assessments” really broadly in Data Wise. At first, Building Assessment Literacy can seem like a daunting prospect. But if you break it into manageable steps, you can scaffold the work.

It is helpful to break it into three key tasks – review skills tested, study how results are reported, and learn principles of responsible data use.

Reviewing skills tested involves considering the larger domain of skills and knowledge that you want students to learn and determining what portion of that domain can be illuminated by the assessments that you actually have.

For example, you might find that one mathematics assessment helps you to measure computational skills and another helps you to determine whether students have the conceptual understanding that allows them to know whether to add, subtract, multiply or divide in a particular situation. However, you might find that none of the assessments you have adequately measures a skill that’s really important for students to master, such as being able to break down a complex situation into manageable steps. In this case, when you move into the Inquire Phase, you and your colleagues may decide that, to understand what’s going on with student learning, you need to find a way to measure that skill.

The next task is to study how results are reported.

Start off with the simple stuff. Who’s being tested, and over what period of time? Then you need to give everyone a chance to understand how scores were calculated. Are they raw scores? Are they scale scores? What does “scales cores” even mean? Or if you’re looking at an open-ended project that’s scored against a rubric, take the time to make sure everyone understands what each level of the rubric means.

It’s also important to think about what kinds of comparisons the results will allow.

Can you track changes in performance of the same student over time, or can compare different cohorts of students to one another? You have to take the time to understand how to read the data in order to be able to use that data to improve your teaching.

The last key task is to learn principles of responsible data use.

For many educators, interpreting what assessment results mean is not something that was part of their initial training.

The essence of using data responsibly is knowing what kind of inferences an assessment is designed to support and what it’s not. This involves having you and your colleagues develop a shared vocabulary.

Concepts such as measurement error, reliability, and validity can help you explain your level of comfort with any conclusion that someone might want to draw from a particular set of results.

For example, if you’re in a small school and you see an increase in average test performance from one year to the next, it’s important to be cautious before jumping to conclusions about what that increase means.

If there’s only 15 students taking the test one year and then 13 the next, the score of any one student can have a large impact on the average. This lower the reliability of the estimate of average performance. And to be responsible users of data, it’s important to take this into consideration.

There are, of course, several challenges to building assessment literacy. For example, some schools do not have the expertise in house and need to find support outside their building for teaching assessment literacy concepts. Other schools find that is overwhelming to build assessment literacy for all assessments at once and choose to sprinkle literacy throughout the improvement process as needed. Still, others find an initial resistance among some teachers because focusing on assessment reports can feel like a distraction from the real work that they want to do.

It’s important not to stall out at Step 2 because, as you get deeper into the improvement process, the work becomes more engaging and more relevant to teachers.

And when this happens, the need to develop assessment literacy becomes more compelling for everyone.


Kathryn Parker Boudett

La fase de Preparación del Proceso de Mejora de Data Wise está diseñada para ofrecer una base sólida para la investigación colaborativa.  Se compone de dos pasos.

El primer paso, como lo mencionamos anteriormente, implica establecer equipos y programas que respalden la colaboración, establecer el tono para asegurar que la colaboración sea efectiva y realizar inventario.

En el paso 2 – Desarrollar Conocimiento de la Evaluación – usted y sus colegas profundizan en sus inventarios de datos y desarrollan habilidades que necesitarán para entender las evaluaciones allí anotadas.

Construir Conocimiento en Evaluación es importante porque asegura que tendrán la formación que necesitan para dar el paso hacia la fase de investigación.

Antes de empezar a hablar sobre conocimiento de evaluación, quiero dejar claro que entiendo por “evaluaciones”.

Algunas de las evaluaciones de su inventario de datos pueden ser exámenes externos de gran importancia. Otras pueden ser exámenes que se hacen durante el año para evaluar el progreso en los aprendizajes esperados/clave. Y no olvidemos otros tipos de tareas de escritura, de habla, o solución de problemas que los profesores desarrollan y evalúan conjuntamente. Todo esto son evaluaciones.

En Data Wise definimos “evaluaciones” de manera amplia. Al principio, la Construcción de Conocimiento en Evaluación puede parecer un prospecto desalentador. Pero si uno lo divide en pasos manejables, se puede andamiar el trabajo.

Es de mucha ayuda dividir el trabajo en tres tareas: revisar las habilidades evaluadas, estudiar cómo se presentan los resultados, y aprender principio de uso responsable de datos.

Revisar las habilidades evaluadas implica considerar todo el campo de habilidades y conocimiento que quiere que sus estudiantes aprendan y luego determinar qué parte de este campo puede ser aclarado mediante las evaluaciones que se están usando.

Por ejemplo, podrían encontrar que en matemáticas una evaluación les ayuda a medir habilidades informáticas y que otra ayuda a determinar si los estudiantes poseen la comprensión conceptual que les permite saber si tienen que sumar, restar, multiplicar o dividir en una situación particular. Sin embargo podrían encontrar que ninguna de las evaluaciones que tienen mide adecuadamente una habilidad que es realmente importante para los estudiantes como el ser capaces de dividir un problema complejo en pasos manejables. Si este es el caso, cuando den el paso hacia la Fase de Investigación, usted y sus compañeros podrían decidir que, para entender lo que está pasando con el aprendizaje de los estudiantes, necesitan encontrar una forma de medir esa habilidad.

La tarea siguiente es estudiar cómo se presentan los resultados.

Comencemos con lo simple. ¿Quién va a ser evaluado y por qué período de tiempo? Tienen que dar a todos la oportunidad de entender cómo se calculan los resultados. ¿Por medio de puntos? ¿Mediante una escala de calificaciones? ¿Qué significa exactamente “escala de calificaciones”? o si están examinando un proyecto indefinido que se evalúa usando una rúbrica, hay que tomar tiempo para asegurarse de que todos entienden lo que significa cada nivel de la rúbrica.

También es importante pensar sobre los tipos de comparaciones que permitirán los resultados.

¿Pueden monitorear los cambios en el rendimiento de un mismo estudiante a lo largo del tiempo, o pueden comparar diferentes grupos de estudiantes entre sí? Tienen que tomar tiempo para entender cómo leer los datos para ser capaces de usarlos en mejorar la enseñanza.

La última tarea importante es aprender principios para el uso responsable de datos.

Para muchos educadores, interpretar lo que significan los resultados no es algo que haya sido parte de su formación.

La esencia de usar responsablemente los datos es conocer qué tipo de inferencias puede respaldar una evaluación y cuáles no. Esto implica que usted y sus compañeros deben desarrollar un vocabulario compartido.

Conceptos tales como error de medición, confiabilidad y validez pueden ayudarles a explicar su nivel de comodidad con cualquier conclusión a la que alguien quiera llegar partiendo de un conjunto particular de resultados.

Por ejemplo, si están en una escuela pequeña y ven un incremento en la media de los resultados de los exámenes de un año para otro, es importante ser precavidos antes de sacar conclusiones acerca del significado de ese incremento.

Si un año solo hay 15 estudiantes  realizando el examen y 13 al siguiente, el resultado de cualquier estudiante puede tener un gran impacto sobre el promedio estimado. Esto disminuye la confiabilidad del promedio estimado, y, para ser usuario responsable de datos, es importante tener esto en consideración.

Hay, por supuesto, muchas dificultades e la hora de construir conocimiento en evaluación. Por ejemplo, algunas escuelas no tienen experiencia interna y necesitan encontrar apoyo externo para enseñar conceptos sobre la evaluación. Otras escuelas encuentran abrumador construir conocimiento sobre la evaluación para todas las evaluaciones a la vez y deciden distribuir el conocimiento de la evaluación a lo largo del proceso de mejora conforme va siendo necesario. Sin embargo, otras encuentran resistencia inicial entre algunos profesores dado que concentrarse en los informes de evaluación puede entenderse como una distracción frente al trabajo real que ellos quieren hacer.

Es importante no saltarse el Paso 2 porque, a medida que vayan profundizando en el proceso de mejora, el trabajo se volverá más significativo para los profesores. Y cuando esto suceda, la necesidad de desarrollar conocimiento sobre evaluación se volverá más imperiosa para todos.

Kathryn Parker Boudett and Elizabeth A. City are co-editors (with Richard J. Murname) of Data Wise: A step-by-step Guide to using Assessment Results to Improve teaching and learning Revised and expanded Edition (Harvard Education Press, 2013). 


El siguiente artículo es complementario... 

Improving Professional Practice. 
All About Accountability / Needed: A dose of Assessment Literacy.

Mejorar la Práctica Profesional.
Todo sobre la Rendición de Cuentas / Nececidad: Una Dosis de Alfabetización en Evaluación. 


W. James Popham


What most of today’s educators know about education assessment would fit comfortably inside a kindergartner’s half-filled milk carton. This is astonishing in light of the fact that during the last 25 years educator competence has been increasingly determined by student performance on various large-scale examinations. Government agencies typically administer these exams, unapologetically aiming them at appraising educators’ effectiveness. Yet most teachers and administrators are unfamiliar with how such large-scale tests are put together or polished. A profession’s adequacy is being judged on the basis of tools that the profession’s members don’t understand.

This situation is analogous to asking doctors and nurses to do their jobs without knowing how to interpret patient charts. Because health professionals are evaluated according to the longevity and physical well-being of their patients, you can be certain that those professionals thoroughly understand how to ascertain a patient’s vital signs. They’re called vital signs because they’re vital!

Yet hoards of educators carry out their day-to-day work as though education testing were somehow peripheral to their mission. It isn’t. Today, more than ever, education, assessment plays a pivotal role in the education of students, that’s why educators – and everyone else who has an interest in education – need a dose of assessment literacy.

It is, of course, understandable why so many of today’s educators are uninformed about education measurement. What most teachers and administrators know about education testing harks back to those days when, as students themselves, they were on the receiving end of classroom and standardized tests. The few educators who actually do take a formal course in education assessment often find the course’s content to be quantitatively intimidating and instructionally irrelevant. Although typically labeled education assessment, many graduate courses in measurement have precious little to do with the realities of education.

When I refer to assessment literacy, I’m not thinking about a large collection of abstruse notions unrelated to the day-to day decisions that educators face. On the contrary, assessment-literate educators need to understand a relatively small number of commonsense measurement fundamentals, not a stack of psychometric exotica.

Let me illustrate by correcting a misconception that oodles of educators hold about education measurement, that there’s such a thing as a valid test. Tests aren’t valid or invalid. Rather, test-based inferences are valid o invalid. Teachers test their students to arrive at inferences (that is, interpretations) about those students’ covert skills or knowledge. We can’t determine a child’s ability to read merely by looking at the child –even using a magnifying glass – because a youngster’s reading skill is unobservable. Accordingly, we ask the student to take a reading test to arrive at an inference regarding the student’s covert reading skill.

Why, you might ask, is it important for educators to know the validity is a property of a test-based inference rather than of a test? Well, if a teacher mistakenly believes that validity resides in the test itself, the teacher will be inclined to defer to whatever results the “valid test” produces. Assessment-literate educators, however, understand that education tests merely provide evidence that enables people to make judgmentally based inferences about students. And most of us know, from far too many personal foul-ups, that people’s judgments are frequently flawed.

If educators thoroughly understood a dozen measurement fundamentals, they could knowledgeably deal –as professionals—with the key assessment-related issues that seem to make today’s education world spin. For example, teachers should know how to determine the accuracy of students’ scores on particular standardized tests and how to exercise the assessment bias that sometimes creeps into teacher-made tests. An assessment literacy promulgators, measurement-knowledgeable educators could spread the word. The truth is, we need piles of such promulgators.

How does an educator who knows little about assessment master these measurement basics? Fortunately, there are a number of practical, easy-to-read books about education assessment that have been published in recent years. Colleges and universities are also offering more and more education assessment courses that focus on the real-world assessment needs of both novice and experienced teachers. Fortunately, educators can master what they need to know about assessment much more rapidly than most people think.

For assessment-literate educators to behave as true professionals, however, they need to undertake purposeful promulgation efforts –with four audiences in mind. First, they need to address educators themselves. They should initiate a promulgation polka in their own backyard by pushing for the installation of assessment-related professional development programs. Next, they need to inform parents of school-age kids about what education tests can and can’t do, perhaps by preparing for parents brief take-home explanations of key assessment concepts, such as the characteristics of a reliable test. Third, everyday citizens –and especially key policymakers—need an infusion of assessment literacy, dispensed in a way that makes sense to laypeople. Letters to newspaper editors and appearances on radio talk shows can help here. Finally, because tests scores so vitally affect today’s students, why not let students in on what makes education tests tick? A two-day instructional unit dealing with testing issues from a student’s perspective would be one way to pull this off. Promulgators of assessment literacy can reach out to these audiences through their professional associations, individually, or as part of an ad hoc promulgation coven.

There is a sincere plea. We are members of a profession currently buffeted by a test-based tornado that too few of our members understand. We must get a sufficient number of our colleagues to learn more about the rudiments of education assessment and, having done so, communicate what they’ve learned. What we need, in short, is to propagate the promulgators. And we need to do it sans delay.


W. James Popham is Emeritus Professor in the UCLA Graduate School of Education and Information Studies

Lo que la mayoría de los educadores de hoy saben sobre la evaluación de la educación fácilmente llenaría medio bote de leche de Jardín de Niños. Esto es sorprendente a la luz del hecho de que durante los últimos 25 años la competencia del educador ha sido cada vez más determinada por el desempeño del estudiante en varios exámenes a gran escala. Por lo general las agencias gubernamentales administran estos exámenes, dirigiéndolos a evaluar la efectividad de los educadores. Sin embargo, la mayoría de los maestros y administradores no están familiarizados con la forma en que estas pruebas a gran escala estén elaboradas. La idoneidad de una profesión está siendo juzgada sobre la base de herramientas que los miembros de la profesión no entienden.

Esta situación es análoga a pedir a doctores y enfermeras que hagan su trabajo sin saber interpretar los expedientes de los pacientes. Como los profesionales de la salud son evaluados de acuerdo con la longevidad y el bienestar físico de sus pacientes, usted puede estar seguro de que esos profesionales entienden a fondo como determinar los signos vitales de un paciente. ¡Son llamados signos vitales porque son vitales!


Sin embargo, muchos educadores llevan a cabo su trabajo cotidiano como si las pruebas educativas fueran de alguna manera ajenas a su misión. No lo es. Hoy, más que nunca, en la educación, la evaluación desempeña un papel fundamental en la educación de los estudiantes, es por eso que los educadores – y todos los que tengan un interés en la educación – necesitan una dosis de alfabetización en evaluación.

Por supuesto, es comprensible por qué muchos de los educadores de hoy no están informados sobre la medición educativa. Lo que la mayoría de los maestros y administradores saben acerca de las pruebas educativas se remonta a aquellos días en que, ellos mismos como estudiantes, estaban en los salones de clases como receptores de pruebas estandarizadas. Los pocos educadores que realmente toman un curso formal en la evaluación de la educación a menudo encuentran el contenido del curso ser cuantitativamente intimidante e instruccionalmente irrelevante. Aunque típicamente etiquetada como evaluación  educativa, muchos cursos de posgrado en medición tienen poco que ver con las realidades de la educación.

Cuando me refiero a la alfabetización de evaluación, no estoy pensando en una gran colección de nociones abstrusas (de difícil comprensión)  no relacionadas con las decisiones diarias que enfrentan los educadores. Por el contrario, los educadores alfabetizados deben entender un número relativamente pequeño de fundamentos de medición de sentido común, no una pila de exóticos psicométricos.  

Permítanme ilustrar mediante la corrección de una idea errónea que muchos educadores tienen sobre la medición de la educación, que hay una “cosa” como una prueba válida. Las pruebas no son válidas ni inválidas. Más bien, las inferencias basadas en pruebas son válidas o no válidas. Los maestros examinan a sus estudiantes para que lleguen a inferencias (es decir, interpretaciones) acerca de las habilidades o conocimientos escondidos de esos estudiantes. No podemos determinar la capacidad de un niño para leer solamente mirando al niño – incluso usando una lupa – porque la habilidad de lectura de un joven es inobservable. En consecuencia, pedimos al estudiante que realice una prueba de lectura para llegar a una inferencia con respecto a su habilidad de lectura.

Usted podría preguntarse ¿Por qué es importante que los educadores sepan que la validez es una propiedad de una inferencia basada en pruebas en lugar de una prueba? Bueno, si un maestro cree erróneamente que la validez reside en la propia prueba, el maestro se inclinará a aplazar los resultados que produzca la “prueba válida”. Sin embargo, los educadores alfabetizados en la evaluación entienden que las pruebas educativas simplemente proporcionan evidencia que permiten hacer inferencias basadas en juicios sobre los estudiantes. Y la mayoría de nosotros sabemos, más allá de las muchas fallas personales, que los juicios de la gente son con frecuencia defectuosos.

Si los educadores entendieran a fondo una docena de fundamentos de medición, podrían lidiar con conocimientos –como profesionales— con las cuestiones clave relacionadas con la evaluación que parecen hacer girar el mundo de la educación de hoy. Por ejemplo, los maestros deben saber cómo determinar la exactitud de las puntuaciones de los estudiantes en determinadas pruebas estandarizadas y cómo ejercer el sesgo de evaluación que a veces se arrastra en las pruebas realizadas por el profesor. Conocedores en la  alfabetización en evaluación con conocimientos de medición podrían divulgar la palabra. La verdad es que necesitamos muchos de esos divulgadores.

¿Cómo un educador con poco conocimiento sobre evaluación domina estos fundamentos de medición? Afortunadamente, hay una serie de libros prácticos y fáciles de leer sobre la evaluación de la educación que se han publicado en los últimos años. Los colegios y universidades también están ofreciendo más y más cursos sobre evaluación educativa que se centran en las necesidades de evaluación del mundo real de los profesores principiantes y experimentados. Afortunadamente, los educadores pueden dominar lo que necesitan saber sobre la evaluación mucho más rápido de lo que la mayoría de la gente piensa.

Sin embargo, para que los educadores alfabetizados en evaluación se comporten como verdaderos profesionales, deben emprender esfuerzos de divulgación intencional con cuatro audiencias en mente. En primer lugar, deben dirigirse a los propios educadores, deben iniciar una ronda de divulgación en su ambiente presionando para la instalación de programas de desarrollo profesional relacionados con la evaluación. A continuación, deben informar a los padres de los niños en edad escolar acerca de lo que las pruebas educativas pueden y no pueden hacer, quizás preparando para los padres explicaciones breves de los conceptos clave de la evaluación, tales como las características de una prueba confiable. En tercer lugar, los ciudadanos comunes –y especialmente los legisladores—necesitan una dosis de alfabetización de evaluación, dispensada de manera que tenga sentido para los no especialistas. Las cartas a los editores de los periódicos y las apariciones en programas de radio pueden ayudar a esto. Por último, debido a que las puntuaciones de las pruebas afectan de manera importante a los estudiantes ¿por qué no involucrar a los alumnos en lo que las pruebas educativas valoran? Una unidad instructiva de dos días que se ocupe de los problemas de pruebas desde la perspectiva de un estudiante sería una manera de avanzar en esto. Los divulgadores de la alfabetización evaluativa pueden llegar a estos públicos a través de sus asociaciones profesionales, o como parte de un grupo formado a propósito.

Hay una súplica sincera. Somos miembros de una profesión actualmente golpeada por un tornado basado en pruebas que muy pocos de nuestros miembros entienden. Debemos hacer que un número suficiente de nuestros colegas aprenda más acerca de los principios básicos de la evaluación educativa y, habiendo hecho esto, comuniquen lo que han aprendido. Lo que necesitamos, en definitiva, es propagar los divulgadores. Y necesitamos hacerlo sin demora.



W. James Popham es Profesor Emérito en la Escuela de Graduados de Educación y Estudios de Información de la UCLA.
POPHAM, James W. (March, 2006). All about Accountability / Needed: A Dose of Assessment Literacy.  Improving Professional Practice. In Educational Leadership. Volume 63, Number 6. Retrieved at http://www.ascd.org/publications/educational-leadership/mar06/vol63/num06/Needed@-A-Dose-of-Assessment-Literacy.aspx  



Fin de la publicación. 

No hay comentarios.:

Publicar un comentario