Esta historia se publicó conjuntamente con Chalkbeat , una organización de noticias sin fines de lucro que cubre la educación pública. Suscríbase a sus boletines aquí .
El verano pasado, los administradores de Bradford High School en Kenosha, Wisconsin, se reunieron como lo hacen todos los años para planificar la próxima generación de estudiantes de noveno grado. De una lista de cientos de estudiantes de secundaria, el subdirector Matt Brown y su personal hicieron una lista de 30 a 40 estudiantes que sospechaban que podrían tener más dificultades para graduarse.
Durante el transcurso de las vacaciones de verano, Brown y su equipo revisaron la lista y visitaron el hogar de cada niño. El personal trajo camisetas para los estudiantes, se presentó a los padres, dejó su información de contacto y, esperaban, una primera impresión positiva.
“Es como, 'Oye, queremos ofrecerte algo de equipo de Bradford. Ahora serás parte de una familia de Bradford'”, dijo Brown.
“Esto surge desde ese punto de vista de, 'Oye, estamos aquí para apoyarte', no necesariamente, 'Oye, tu hijo realmente se equivocó el año pasado'... porque no queremos que los padres se sientan como tú'. Ya están etiquetando a su hijo como alguien alborotador”.
Pero en la mayoría de los casos, los estudiantes en la lista de Bradford para visitas de verano llegan allí debido a una etiqueta (“alto riesgo”) que les asigna un algoritmo racialmente inequitativo creado por el estado de Wisconsin, que con frecuencia genera falsas alarmas.
Desde 2012, los administradores escolares de Wisconsin como Brown han recibido su primera impresión de los nuevos estudiantes a través del Sistema de Alerta Temprana de Abandono (DEWS), un conjunto de algoritmos de aprendizaje automático que utilizan datos históricos, como las puntuaciones de los exámenes de los estudiantes, los registros disciplinarios, las tasas gratuitas o de precio reducido. estado del precio del almuerzo y raza, para predecir la probabilidad de que cada estudiante de sexto a noveno grado en el estado se gradúe a tiempo de la escuela secundaria.
Dos veces al año, las escuelas reciben una lista de sus estudiantes matriculados con la predicción codificada por colores de DEWS al lado de cada nombre: verde para riesgo bajo, amarillo para riesgo moderado o rojo para alto riesgo de abandono escolar.
Los funcionarios de educación alguna vez consideraron al DEWS una herramienta clave en su lucha contra la brecha de graduación en el estado.
Mientras que el 94 por ciento de los estudiantes blancos se graduaron a tiempo el año pasado, sólo el 82 por ciento de los estudiantes hispanos y el 71 por ciento de los estudiantes negros completaron la escuela secundaria en cuatro años. El objetivo de DEWS era poner predicciones personalizadas en manos de los educadores con suficiente antelación para que pudieran intervenir antes de que un niño mostrara signos evidentes de desviarse.
Pero después de una década de uso y millones de predicciones, The Markup descubrió que DEWS puede estar influyendo de manera incorrecta y negativa en cómo los educadores perciben a los estudiantes, particularmente a los estudiantes de color.
Y un próximo estudio académico realizado por investigadores de la Universidad de California, Berkeley, que compartieron datos y hallazgos previos a la publicación con The Markup, concluyó que DEWS ha fracasado en su objetivo principal: mejorar las tasas de graduación de los estudiantes que etiqueta como “de alto riesgo”. "
Un análisis de equidad interno del Departamento de Instrucción Pública (DPI) realizado en 2021 encontró que el DEWS generó falsas alarmas sobre estudiantes negros e hispanos que no se graduaban a tiempo a un ritmo significativamente mayor que el de sus compañeros blancos.
La tasa de falsas alarmas del algoritmo (la frecuencia con la que un estudiante que predijo que no se graduaría a tiempo en realidad se graduó a tiempo) fue 42 puntos porcentuales más alta para los estudiantes negros que para los blancos, según una presentación del DPI que resume el análisis , que obtuvimos a través de un Solicitud de registros públicos.
La tasa de falsas alarmas fue 18 puntos porcentuales más alta para los estudiantes hispanos que para los estudiantes blancos.
El DPI no ha informado a los funcionarios escolares que utilizan DEWS sobre los hallazgos ni parece haber alterado los algoritmos en los casi dos años desde que concluyó que DEWS era injusto.
La presentación del DPI que resume el análisis de equidad que revisamos no incluyó las tasas subyacentes de falsas alarmas para estudiantes negros, hispanos y blancos que el DPI utilizó para realizar sus cálculos. Tampoco incluyó resultados de estudiantes de otras carreras.
El departamento se negó a responder preguntas sobre el análisis y, en respuesta a una solicitud de registros públicos posterior, el DPI dijo que no tenía documentación de los resultados del análisis de equidad más allá de la presentación. (Puedes ver un vídeo de la presentación aquí ).
Una prueba de validación de DPI separada de la precisión del DEWS en marzo de 2021 muestra que se equivocó casi las tres cuartas partes de las veces que predijo que un estudiante no se graduaría a tiempo.
Los estudiantes que entrevistamos se sorprendieron al saber que DEWS existía y le dijeron a The Markup que les preocupaba que un algoritmo estuviera usando su raza para predecir su futuro y etiquetarlos como de alto riesgo.
“Hace que los estudiantes de color se sientan separados... como si automáticamente tuvieran menos”, dijo Christopher Lyons, un estudiante negro que se graduó de Bradford High School en 2022.
La portavoz del DPI de Wisconsin, Abigail Swetz, se negó a responder preguntas sobre el DEWS, pero proporcionó una breve declaración por correo electrónico.
“¿Es DEWS racista?” escribió Swetz. “No, el análisis de los datos no es racista. Son las matemáticas las que reflejan nuestros sistemas. La realidad es que vivimos en una sociedad supremacista blanca y el sistema educativo es sistémicamente racista. Por eso el DPI necesita herramientas como DEWS y por eso estamos comprometidos con la equidad educativa”.
En respuesta a nuestros hallazgos y preguntas adicionales, Swetz escribió: “Tiene un malentendido fundamental sobre cómo funciona este sistema. Mantenemos nuestra respuesta anterior”. No explicó cuál era ese malentendido fundamental.
Para reconstruir cómo DEWS ha afectado a los estudiantes que ha juzgado, The Markup examinó investigaciones no publicadas del DPI, analizó 10 años de datos de DEWS a nivel de distrito, entrevistó a estudiantes y funcionarios escolares y recopiló respuestas a encuestas de 80 de los más de 400 distritos del estado sobre su uso de las predicciones.
Nuestra investigación muestra que muchos distritos de Wisconsin utilizan DEWS (el 38 por ciento de los que respondieron a nuestra encuesta) y que las fallas técnicas de los algoritmos se han visto agravadas por la falta de capacitación de los educadores.
DEWS es un programa voluntario y el DPI anima a los educadores a utilizar las predicciones en combinación con otros datos locales sobre los estudiantes para tomar decisiones. La agencia no rastrea si las escuelas utilizan las predicciones ni cómo lo hacen.
Directores, superintendentes y otros administradores dijeron a The Markup que recibieron poca o ninguna explicación sobre cómo DEWS calcula sus predicciones o cómo traducir una etiqueta como "alto riesgo" en la intervención adecuada.
En distritos como Kenosha, los estudiantes de color no necesitan datos para comprender las consecuencias de ser juzgados por sistemas sesgados. En 2020, la ciudad acaparó los titulares nacionales tras el tiroteo policial contra Jacob Blake.
Y a principios de este año, la familia de una estudiante negra de 12 años demandó al Distrito Escolar Unificado de Kenosha después de que un oficial de policía fuera de servicio que trabajaba en seguridad la estrangulara en el comedor de su escuela.
En 2018, el año en que Lyons ingresó a Bradford High School, un maestro fue filmado repetidamente usando un insulto racial frente a los estudiantes. Ese año, DEWS calificó al 43 por ciento de los estudiantes negros de noveno grado en Kenosha como de alto riesgo, en comparación con el 11 por ciento de los estudiantes blancos de noveno grado.
En ese momento, Lyons dijo que ya había perdido la motivación académica. "Parecía que no se esperaba que hiciéramos mucho", dijo. "Parecía que sabían que estábamos destinados a fracasar".
Entonces sucedió algo inesperado en su segundo año: llegó la pandemia de COVID-19, las clases se volvieron virtuales y, como él dijo, sus calificaciones “se dispararon” de un GPA de 2,9 antes de la pandemia a un GPA de 3,8 después del cambio al aprendizaje remoto.
Lo que para muchos estudiantes fue una interrupción desorientadora de su educación, para Lyons fue un respiro que le permitió concentrarse. “No tenía esa presión social de los maestros a mi alrededor o de la administración a mi alrededor”, dijo. "Era sólo yo, la computadora, con quien estaba hablando".
El año pasado, Lyons comenzó su primer año en Carthage College en Kenosha con una beca completa. Su viaje ilustra las peculiaridades de la personalidad, el estilo de aprendizaje y el entorno que, según algunos expertos, hacen que sea contraproducente predecir el futuro de un estudiante individual basándose en un análisis a nivel de población de estudiantes estadísticamente similares.
No obstante, los sistemas de alerta temprana que utilizan el aprendizaje automático para predecir los resultados de los estudiantes son comunes en la educación K-12 y superior . Al menos ocho agencias estatales de educación pública proporcionan sistemas algorítmicos de alerta temprana o actualmente los están construyendo para uso futuro, según una encuesta de Markup en los 50 estados. Cuatro estados no respondieron.
Montana fue el único estado además de Wisconsin que dijo que había examinado cómo funcionaba su sistema de alerta temprana en diferentes grupos raciales. El portavoz de la Oficina de Instrucción Pública de Montana, Brian O'Leary, dijo que el estudio de equidad de su estado aún no estaba terminado.
Al principio y a mitad de cada año, DEWS calcula la probabilidad de que cada estudiante entrante de sexto a noveno grado se gradúe de la escuela secundaria a tiempo en una escala de 0 a 100.
Una puntuación de 90 indica que los estudiantes con características académicas, de comportamiento y demográficas similares se han graduado a tiempo el 90 por ciento de las veces en el pasado. Cualquier estudiante cuyo puntaje DEWS (más margen de error) sea inferior a 78,5 se considera de alto riesgo de no graduarse a tiempo.
Para que a los educadores les resulte más fácil comprender las predicciones, DPI traduce las puntuaciones DEWS a un formato simple codificado por colores. Junto al nombre de cada estudiante en la pestaña DEWS del sistema de información estatal hay una etiqueta que muestra su puntaje y una designación de riesgo verde "bajo", amarillo "moderado" o rojo "alto".
Durante el año académico 2020-21, más de 32.000 estudiantes (el 15 por ciento de los estudiantes de sexto a noveno grado del estado) fueron etiquetados como de “alto riesgo”.
Leyenda: Ejemplos de cómo se muestran las predicciones DEWS de los estudiantes en el sistema de información estatal. Crédito: Resumen de datos DEWS del DPI
Los expertos dicen que el sistema está diseñado de manera que inadvertidamente puede sesgar las opiniones de los educadores sobre los estudiantes y desviar los escasos recursos escolares. De particular preocupación es la medida en que DEWS se basa en factores como la raza, la discapacidad y la riqueza familiar, que probablemente codifiquen la discriminación sistémica y que ni la escuela ni el estudiante pueden cambiar.
Otros puntos de datos introducidos en DEWS, como las tasas de disciplina, tienen claras disparidades raciales ; el DPI lo sabe y ha escrito al respecto en su sitio web .
"Me pregunto cómo estas categorías de riesgo empujan a las escuelas y los distritos a considerar a los individuos en lugar de a los problemas estructurales, diciendo que este niño necesita estas cosas, en lugar de que los problemas estructurales sean la razón por la que vemos estos riesgos", dijo Tolani Britton. , profesor de educación en UC Berkeley, quien coescribió el próximo estudio sobre DEWS.
"No creo que sea malo que los estudiantes reciban recursos adicionales, pero al mismo tiempo, crear algoritmos que asocien su raza u origen étnico con su capacidad para completar la escuela secundaria parece un camino peligroso a seguir".
Cuando DEWS predice que un estudiante se graduará, generalmente acierta: el 97 por ciento de las veces esos estudiantes se gradúan en los cuatro años estándar, según la prueba de validación de 2021, que muestra cómo se desempeñaron los algoritmos cuando se probaron con datos históricos.
Pero cuando el DEWS predijo que un estudiante no lo haría, generalmente estaba equivocado: el 74 por ciento de las veces esos estudiantes se gradúan a tiempo, según la misma prueba.
Esto es parcialmente por diseño. El DPI calibra DEWS para lanzar una red amplia e identificar excesivamente a los estudiantes que corren el riesgo de abandonar la escuela.
En un artículo de 2015 que describe DEWS en el Journal of Educational Data Mining, el ex analista de investigación del DPI, Jared Knowles, escribió que el DPI estaba “declarando explícitamente que estamos dispuestos a aceptar” 25 falsas alarmas de que los estudiantes no se graduarán si eso significa identificar correctamente a un desertor.
Pero en su análisis de equidad, el DPI encontró que los algoritmos no generan falsas alarmas por igual .
Leyenda: Una captura de pantalla de una presentación del DPI que resume los resultados del análisis de equidad DEWS del departamento. Crédito: DPI de Wisconsin
“En términos sencillos: el modelo sobreidentifica a los estudiantes blancos entre los graduados puntuales, mientras que sobreidentifica a los estudiantes negros, hispanos y otros de color entre los graduados no puntuales”, escribió un analista de investigación del DPI en notas para el presentación.
La presentación no especifica qué puntajes DEWS califican como graduación a tiempo, a los efectos del análisis de equidad.
Las notas de la diapositiva, titulada "¿Es justo DEWS?" terminar con la conclusión “no…”
"Definitivamente han estado usando un modelo que tiene errores sistemáticos en términos de raza de los estudiantes, y eso es algo que realmente hay que arreglar", dijo Ryan Baker, profesor de educación de la Universidad de Pensilvania que estudia los sistemas de alerta temprana.
"Tenían factores demográficos como predictores y eso enfatizaría demasiado el significado de esas variables y provocaría este tipo de efecto".
Recientemente, un equipo de investigadores que trabajan principalmente en UC Berkeley (el candidato a doctorado Juan Perdomo, Britton y los expertos en equidad algorítmica Moritz Hardt y Rediet Abebe) han examinado la eficacia de DEWS a través de una lente diferente.
Su investigación, que utiliza casi 10 años de datos del DEWS, que el DPI compartió voluntariamente, es el análisis más grande jamás realizado sobre cómo un sistema predictivo de alerta temprana afecta los resultados de los estudiantes.
Si bien estudios anteriores han preguntado con qué precisión funcionan los sistemas de alerta temprana cuando se comparan con datos históricos, el estudio de UC Berkeley examina si DEWS condujo a mejores tasas de graduación para estudiantes reales etiquetados como de alto riesgo.
Los investigadores probaron si las tasas de graduación mejoraron para los estudiantes cuyos puntajes DEWS estaban justo por debajo del umbral de 78,5 para ubicarlos en la categoría de alto riesgo en comparación con los estudiantes cuyos puntajes estaban justo por encima de ese umbral, ubicándolos en la categoría de riesgo moderado.
Si el sistema funcionara según lo previsto, los estudiantes en la categoría de alto riesgo verían mejores tasas de graduación porque recibieron recursos adicionales, pero el estudio encontró que ser colocado en la categoría de alto riesgo no tuvo un efecto estadísticamente significativo sobre si los estudiantes se graduaron a tiempo.
"No hay evidencia de que las predicciones del DEWS hayan influido de alguna manera en la probabilidad de graduarse a tiempo", escribieron los autores.
Si el sistema funcionara según lo previsto y las escuelas dirigieran más recursos a los estudiantes etiquetados como de alto riesgo, sugiere el estudio de UC Berkeley, tendría un impacto diferente pero también inequitativo.
"Si las escuelas seleccionan a los estudiantes para la intervención clasificando sus puntajes [DEWS] y seleccionando aquellos con la menor probabilidad prevista de graduación, los estudiantes desatendidos serían sistemáticamente pasados por alto y sin prioridad", escribieron los autores.
Esto se debe a que las tasas de graduación previstas por el DEWS no reflejan con precisión las tasas reales de graduación de los estudiantes. Los estudiantes blancos, en particular, se gradúan a tasas mucho más altas de lo que sugerirían sus puntajes DEWS, según datos compartidos con The Markup por los investigadores de UC Berkeley.
Por ejemplo, los estudiantes de color que recibieron puntuaciones DEWS de 83 se graduaron a tiempo el 90 por ciento de las veces. Esa es la misma tasa de graduación promedio en todo el estado de Wisconsin el año pasado.
Los estudiantes blancos que recibieron el mismo puntaje DEWS de 83 se graduaron a tiempo el 93 por ciento de las veces, por encima del promedio estatal.
Pero lo más importante es que los estudiantes blancos que recibieron puntuaciones DEWS significativamente más bajas de 63 se graduaron a tiempo esencialmente al mismo ritmo que los estudiantes blancos con puntuaciones más altas: el 92 por ciento de las veces.
Pero los estudiantes de color que recibieron puntuaciones de 68 en el DEWS se graduaron a tiempo sólo el 81 por ciento de las veces, por debajo del promedio estatal.
En otras palabras, si los educadores siguieran el consejo de DEWS y priorizaran a los estudiantes blancos con puntajes de 63 para obtener ayuda sobre los estudiantes de color con puntajes de 68, habrían priorizado a los estudiantes que finalmente se gradúan con tasas superiores al promedio sobre los estudiantes que finalmente se gradúan con tasas inferiores al promedio. tarifas promedio.
Esa peculiaridad particular del algoritmo probablemente no ha exacerbado la desigualdad en Wisconsin, concluyó el estudio, porque DEWS no está mejorando los resultados de nadie etiquetado como de alto riesgo, independientemente de su raza.
Desde sus inicios, el DPI promovió el DEWS como una herramienta rentable para combatir la “inaceptable” brecha de graduación del estado. Pero el sistema de alerta temprana no fue la primera solución de la agencia.
Como parte de su propuesta de presupuesto bianual en 2011, el DPI de Wisconsin, que estaba bajo el liderazgo de Tony Evers, quien ahora es el gobernador del estado, solicitó $20 millones para un programa de subvenciones "Cada niño es un graduado" que enviaría recursos directamente a los distritos con dificultades. .
Ese año, el 91 por ciento de los estudiantes blancos del estado se graduaron de la escuela secundaria a tiempo en comparación con el 64 por ciento de los estudiantes negros.
Pero el entonces gobernador Scott Walker tenía un plan diferente para la educación pública. Recortó casi $800 millones , alrededor del 7 por ciento, en fondos estatales para escuelas públicas del presupuesto de dos años. Eso incluyó los $20 millones para “Cada niño es un graduado”, de los cuales la administración de Walker redirigió $15 millones para construir un sistema de información estudiantil a nivel estatal para albergar todos los datos de los alumnos en un solo lugar.
Al negarle su programa de subvenciones pero en posesión de una gran cantidad de datos nuevos, el DPI buscó una solución de alta tecnología para su brecha de graduación. En 2012, comenzó a poner a prueba DEWS.
En el momento de su creación, DEWS era uno de los sistemas predictivos de alerta temprana más avanzados del país.
Su precisión estaba “a la par de algunos de los sistemas mejor considerados actualmente en uso, pero se realiza a mayor escala, en un conjunto más diverso de entornos escolares, [y] en grados anteriores”, dijo Knowles, ex analista de investigación del DPI. quien construyó el sistema, escribió en el artículo de 2015 del Journal of Educational Data Mining.
El DPI rápidamente decidió ampliar su uso de análisis predictivo y en 2016 lanzó un algoritmo hermano, llamado Sistema de Alerta Temprana de Preparación Universitaria y Profesional (CCREWS), que predice si los estudiantes están “listos” o “no listos” para el ACT y la universidad.
En la encuesta de The Markup sobre los distritos escolares de Wisconsin, siete de 80 encuestados dijeron que usan CCREWS de alguna manera, en comparación con 30 distritos que informaron usar DEWS.
En 2019, el DPI puso a prueba otro modelo algorítmico basado en DEWS que pretendía predecir qué estudiantes tendrían éxito en los cursos AP. Escuelas de 11 distritos se inscribieron en el proyecto piloto, pero el proyecto fue abandonado tras el inicio de la pandemia de COVID-19, según documentos obtenidos a través de una solicitud de registros públicos.
Número de puntos porcentuales que la brecha de graduación entre estudiantes blancos y negros en Wisconsin se ha reducido desde 2011, el año anterior a que se pusiera a prueba DEWS.
Durante la última década de experimentación estatal con algoritmos predictivos, la desigualdad educativa en Wisconsin apenas ha mejorado.
La brecha de graduación entre estudiantes blancos y negros se ha reducido solo cuatro puntos desde 2011, del 27 al 23 por ciento. Mientras tanto, la brecha entre los puntajes de lectura de los estudiantes blancos y negros de octavo grado en Wisconsin ha sido la peor de cualquier estado de la nación en todas las Evaluación Nacional del Progreso Educativo (NAEP) que se remontan a 2011.
También ha tenido la brecha más amplia de todos los estados entre los puntajes de matemáticas de los estudiantes blancos y negros de octavo grado en cada NAEP desde 2009.
“La pregunta que siempre hago cuando salen esos datos no es solo qué tan mal les va a los niños negros, [sino] ¿cómo es que a los niños blancos les va tan bien?” dijo Gloria Ladson-Billings, experta nacional en desigualdad educativa y profesora jubilada de la Universidad de Wisconsin-Madison.
“No es que no sepamos cómo sacar adelante a estos niños. El problema es que tienen que parecerse a atletas de la División I para que nos importe lo suficiente”.
Los estudiantes negros e hispanos de Wisconsin dijeron a The Markup que a menudo se sienten parte de un sistema escolar de segunda clase.
Kennise Perry, una estudiante de 21 años de UW-Parkside, asistió a las Escuelas Públicas de Milwaukee, de las cuales el 49 por ciento son negros antes de mudarse al suburbio de Waukesha, donde las escuelas son sólo el 6 por ciento negras. Dijo que su infancia fue difícil, que su vida familiar a veces era inestable y que sus escuelas probablemente la consideraban una estudiante de “alto riesgo”.
“Yo era el único niño negro en todas mis clases. No había otra representación de nadie que se pareciera a mí y mis compañeros eran extremadamente racistas”, dijo. “Fue realmente traumático... Estaba tan enojado que no sabía cómo expresar mi enojo. Me sentí miserable.
Entonces, por supuesto, comenzaron las etiquetas y esas cosas. Pero siento que la diferencia entre las personas que lo logran y las que no son las personas que tienes a tu alrededor, como si yo tuviera personas que se preocupaban por mí y me daban una segunda oportunidad y esas cosas. [DEWS] enumera a estos niños como de alto riesgo y sus estadísticas, ni siquiera les estás dando una oportunidad, ya los estás etiquetando”.
El distrito escolar de Waukesha no respondió a la encuesta de The Markup ni a la solicitud de comentarios. Sin embargo, los documentos obtenidos a través de solicitudes de registros públicos muestran que la escuela secundaria Waukesha North, a la que asistió Perry, se inscribió para participar en el piloto del algoritmo del DPI diseñado para predecir qué estudiantes tendrían éxito en las clases AP.
Las Escuelas Públicas de Milwaukee, el distrito más grande del estado, no utilizan DEWS ni ningún tipo de aprendizaje automático para su sistema de alerta temprana, escribió el portavoz Stephen Davis en un correo electrónico a The Markup. Al igual que muchos distritos y estados, utiliza un enfoque de baja tecnología que identifica a los estudiantes si están dentro o fuera del camino en función de si han alcanzado ciertos puntos de referencia, como estar ausentes durante un número predefinido de días.
El año pasado, los estudiantes de Cudahy High School crearon su primer sindicato de estudiantes negros en respuesta a incidentes racistas que sentían que la administración de la escuela no estaba abordando adecuadamente.
“Sabes que [los estudiantes blancos] ya tienen una ventaja”, dijo Mia Townsend, estudiante de tercer año y vicepresidenta del Sindicato de Estudiantes Negros de Cudahy. “Ya sientes esa separación… Tienen más oportunidades y más margen de maniobra cuando se trata de ciertas cosas”.
Los estudiantes de BSU han brindado orgánicamente el mismo tipo de intervenciones de apoyo mutuo que el estado esperaba lograr a través de sus algoritmos predictivos.
Durante el año escolar 2020-21, el 18 por ciento de los estudiantes blancos en Wisconsin tomaron exámenes AP en comparación con el 5 por ciento de los estudiantes negros. Townsend, una estudiante del cuadro de honor, dijo que estaba en camino de evitar los cursos AP hasta que su compañero de tercer año Maurice Newton, presidente de BSU, la instó a aceptar el desafío. Pidió unirse a una clase de inglés AP el próximo año.
"Hacen que parezca que es más desafiante y, sinceramente, es lo mismo", dijo Newton. "Puedes aprobar la clase con una buena nota".
En respuesta a las preguntas de The Markup sobre DEWS, la superintendente del distrito de Cudahy, Tina Owen-Moore, compartió un hilo de correo electrónico en el que los miembros del personal expresaron que no conocían ni utilizaban actualmente las predicciones, pero que los consejeros estaban “entusiasmados con este recurso. "
Sin embargo, después de revisar nuestros hallazgos, Owen-Moore escribió: "¡¡Eso ciertamente cambia mi perspectiva!!"
Muchos distritos que respondieron a la encuesta de The Markup dijeron que utilizan las predicciones de DEWS de manera similar a como lo hacen Brown y el personal de Bradford High School en Kenosha, para identificar qué nuevos estudiantes en sus edificios pueden requerir atención adicional.
En el distrito escolar de la ciudad de Appleton, los administradores de casos de las escuelas secundarias utilizan DEWS y otros datos para identificar a los estudiantes entrantes de primer año que necesitan apoyo y para determinar el número de casos de educación especial, por ejemplo.
Confiando “en gran medida” en los datos de DEWS, el Distrito Escolar de Winneconne envía cartas a los padres informándoles que su hijo puede estar en riesgo, aunque esas cartas no hacen referencia al algoritmo.
Pero algunas escuelas han encontrado otros usos no autorizados para los datos. Por ejemplo, Sara Croney, superintendente del Distrito Escolar de Maple, dijo a The Markup que su personal ha utilizado los “datos imparciales percibidos” de DEWS para solicitar con éxito una subvención de desarrollo personal centrada en llegar a estudiantes no comprometidos.
En la ciudad de Racine, las escuelas intermedias alguna vez utilizaron DEWS para seleccionar qué estudiantes serían colocados en un programa especial de “Zona Libre de Violencia”, que incluía enviar a los estudiantes disruptivos a un salón de clases separado.
El Distrito Escolar de Racine “actualmente no utiliza DEWS o CCREWS”, escribió la portavoz Stacy Tapp en un correo electrónico.
Muchos administradores entrevistados por The Markup dijeron que habían recibido poca o ninguna capacitación sobre cómo DEWS calcula sus predicciones o cómo interpretarlas.
“Simplemente nos entregaron los datos y nos dijeron: 'Descúbrelo'”, dijo Croney. "Entonces nuestros directores lo analizarán y decidirán quiénes son los niños en el área de riesgo".
El DPI proporciona documentación sobre cómo funciona DEWS y sus usos previstos en su sitio web, pero gran parte del material público omite un hecho clave sobre el sistema: que sus predicciones se basan en parte en la raza, el género, la riqueza familiar y la situación económica de los estudiantes. otros factores sobre los que las escuelas no tienen control.
Por ejemplo, la Guía de acción DEWS del departamento no menciona que la raza, el género o el estado del almuerzo gratuito o a precio reducido de los estudiantes sean variables de entrada clave para los algoritmos.
La página web del DPI que describe los datos utilizados para generar predicciones DEWS enumera cuatro categorías distintas de información: asistencia, historial disciplinario, número de distritos atendidos en el año anterior (movilidad) y puntajes de exámenes estatales.
Afirma que “se utilizan atributos demográficos”, pero no cuáles ni cómo influyen en las predicciones.
De manera similar, cuando los educadores ven las predicciones DEWS de los estudiantes en el sistema de información estatal, pueden examinar cómo la asistencia, el historial disciplinario, la movilidad y los puntajes de las pruebas de los estudiantes afectan la etiqueta de riesgo general, pero no se les muestra cómo las características demográficas de los estudiantes afectan la predicción. .
Shari Johnson, directora de currículo e instrucción del Distrito Escolar de Richland, dijo que sus escuelas estaban comenzando a crear planes de acción y asignar mentores a estudiantes de “alto riesgo” con el objetivo de sacarlos de esa categoría, especialmente aquellos en “mayor riesgo”. ”Porque dijo que no sería posible ser mentor de todos.
Sin embargo, cuando habló con The Markup, no sabía que características como una discapacidad o estar en desventaja económica afectaban la puntuación de un estudiante.
“¿De quién es la responsabilidad de que sepamos de estas cosas? Esa es mi preocupación en esta posición, que sólo me haya enterado por casualidad”, dijo Johnson. "Lo que hago está directamente relacionado con DEWS y la información que hay allí, y eso me asusta".
La desconexión entre cómo funciona DEWS y cómo los educadores entienden que funciona no es una novedad para el DPI.
En 2016, investigadores del Laboratorio de Educación Regional del Medio Oeste escribieron un informe para el DPI que nunca se publicó, basado en una encuesta de las experiencias de los directores de escuelas secundarias con DEWS.
El informe, que obtuvimos a través de solicitudes de registros públicos, concluyó que los encuestados "deseaban más capacitación y apoyo sobre cómo identificar y monitorear las intervenciones" y que "el tiempo, el dinero y la capacitación sobre DEWS" eran los principales impedimentos para usar el sistema.
El director de Bradford High School, Brian Geiger, dijo que recuerda haber oído hablar de DEWS en el momento de su lanzamiento, cuando era subdirector en otra escuela de Kenosha, y lo ha utilizado para diversos fines, incluidas visitas domiciliarias de verano, desde entonces.
Ahora Brown, su subdirector en Bradford, ha retomado la práctica. Incluso sabiendo que DEWS tiene fallas, Brown dijo que las predicciones son los mejores datos que tiene para los estudiantes entrantes.
“No es un predictor del 100 por ciento. Mi percepción sobre esto es que lo usamos como una guía”, dijo, y agregó: “Me gustaría que pudiéramos visitar cada casa de los 1,400 niños [matriculados en Bradford High School]. No tenemos un presupuesto para la escuela de verano para hacer eso”.
Una versión anterior del mapa de este artículo incluía incorrectamente Hawái, Nevada, Nueva Jersey, Carolina del Norte y Michigan. Esos estados utilizan sistemas de alerta temprana, pero no utilizan algoritmos ni aprendizaje automático para predecir los resultados de los estudiantes.
Créditos: Todd Feathers , Ko Bragg , Joel Eastwood , Gabriel Hongsdusit , Rodney Johnson , Jeremy Singer-Vine , Maria Puertas y Jill Jaroff
También publicado aquí
Foto de Sigmund en Unsplash