En uno de los experimentos de campo educativos más grandes jamás realizados, un equipo codirigido por un investigador de Cornell descubrió que las intervenciones prometedoras para ayudar a los estudiantes a completar cursos en línea no eran efectivas a gran escala, lo que sugiere que se necesitan soluciones específicas para ayudar a los estudiantesen diferentes circunstancias o ubicaciones.
Los investigadores rastrearon a 250,000 estudiantes de casi todos los países en 250 cursos abiertos masivos en línea MOOC durante 2 1/2 años en el estudio, "Escalando las intervenciones de ciencias del comportamiento en la educación en línea", publicado el 15 de junio en el Actas de la Academia Nacional de Ciencias .
"Las intervenciones conductuales no son una bala de plata", dijo René Kizilcec, profesor asistente de ciencias de la información y coautor principal.
"Estudios anteriores mostraron que las intervenciones breves y ligeras al comienzo de algunos cursos seleccionados pueden aumentar las tasas de persistencia y finalización", dijo. "Pero cuando se amplía a más de 250 cursos diferentes y un cuarto de millón de estudiantes,los efectos de la intervención fueron un orden de magnitud menor "
El estudio fue codirigido por Justin Reich, del Instituto de Tecnología de Massachusetts, y Michael Yeomans, del Imperial College de Londres. La investigación se realizó en las plataformas edX y Open edX, y edX se ha comprometido a trabajar para poner los datos a disposición de las instituciones.investigadores para avanzar la ciencia educativa a escala.
Los 250 cursos que estudiaron los investigadores provinieron de la Universidad de Harvard, el MIT y la Universidad de Stanford.
La falta de completar cursos en línea es un obstáculo bien conocido y de larga data para el aprendizaje virtual, particularmente entre las comunidades desfavorecidas y en las naciones en desarrollo, donde la educación en línea puede ser un camino clave para el avance social. Los resultados han agregado relevancia con ellomucha educación en todo el mundo se lleva a cabo en línea durante la pandemia COVID-19.
"Mi consejo para los instructores es que comprendan y aborden los desafíos específicos en su entorno de aprendizaje", dijo Kizilcec. "Si los estudiantes tienen problemas con su conexión a Internet, no pueden ayudarlos a superarlos con una intervención de autorregulación. Perosi los estudiantes necesitan acostarse a tiempo para estar despiertos para una conferencia matutina, o si necesitan planificar con anticipación cuándo comenzar a trabajar en la tarea para tenerla lista para entregar, entonces una breve intervención de autorregulación puedede hecho, ayudan a los estudiantes a superar estos obstáculos "
Investigaciones anteriores a pequeña escala, realizadas por Kizilcec y sus coautores, así como otros académicos, encontraron que las intervenciones para establecer objetivos, como escribir una lista de intenciones al comienzo de la clase, mejoraron las tasas de finalización del curso de los estudiantes.
En este estudio, los investigadores exploraron los efectos de cuatro intervenciones :
Para las primeras tres intervenciones, que implican la planificación anticipada, los investigadores descubrieron que el enfoque fue eficaz para impulsar la participación durante las primeras semanas del curso, pero el impacto disminuyó a medida que el curso avanzó. La intervención de relevancia de valor fue efectiva en el desarrollopaíses donde los resultados de los estudiantes fueron significativamente peores que otros, pero solo en cursos con una brecha de rendimiento global; en otros cursos, en realidad tuvo un impacto negativo en los países en desarrollo.
Los investigadores probaron si podían predecir en qué cursos se produciría una brecha en el rendimiento, para decidir dónde se debería agregar la intervención, pero les resultó extremadamente difícil predecir.
"No saber si ayudará o perjudicará a los estudiantes en un curso dado es un gran problema", dijo.
Los investigadores intentaron usar el aprendizaje automático para predecir qué intervenciones podrían ayudar a qué estudiantes, pero encontraron que el algoritmo no era mejor que asignar la misma intervención a todos los estudiantes.
"Cuestiona el potencial de la IA para proporcionar intervenciones personalizadas a estudiantes con dificultades", dijo Kizilcec. "Los enfoques que se centran en comprender qué funciona mejor en entornos individuales y luego adaptar las intervenciones a esos entornos podrían ser más efectivos".
Los investigadores dijeron que sus hallazgos sugieren que los futuros estudios deberían diseñarse para considerar y revelar las diferencias entre los estudiantes, además de los estudios que evalúan los efectos generales.
El artículo fue escrito por Christopher Dann de la Universidad Carnegie Mellon, Emma Brunskill de la Universidad de Stanford, Glenn Lopez y Dustin Tingley de Harvard, Selen Turkay de la Universidad de Tecnología de Queensland y Joseph J. Williams de la Universidad de Toronto.la investigación fue financiada en parte por la National Science Foundation, una beca de posgrado interdisciplinaria de Stanford y una beca de facultad de Microsoft.
Fuente de la historia :
Materiales proporcionado por Universidad de Cornell . Original escrito por Melanie Lefkowitz. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :