NUEVOS ENTORNOS DE APRENDIZAJE PARA LA ESCRITURA: SISTEMAS DE TUTORÍA INTELIGENTE

New learning environments for writing: Intelligent tutoring systems

Lucía Rodríguez Málaga
Universidad de Oviedo, España
Celestino Rodríguez Pérez
Universidad de Oviedo, España
Raquel Fidalgo Redondo
Universidad de León, España

NUEVOS ENTORNOS DE APRENDIZAJE PARA LA ESCRITURA: SISTEMAS DE TUTORÍA INTELIGENTE

Papeles del Psicólogo, vol. 40, núm. 2, pp. 133-140, 2019

Consejo General de Colegios Oficiales de Psicólogos

Recepción: 06 Diciembre 2018

Aprobación: 14 Febrero 2019

Resumen: Numerosos metaanálisis han demostrado cómo el uso de la tecnología es una práctica efectiva en el campo de la instrucción en escritura. Sin embargo, la mayor parte de estos estudios se han centrado en los efectos del procesador de Word para mejorar la escritura de los estudiantes. Este trabajo investiga y muestra los efectos de nuevas formas de instrucción en la escritura, como son los Sistemas de Tutoría Inteligente (STI), una de las herramientas más sofisticadas dentro del campo de los entornos virtuales de aprendizaje. Se ha revisado sistemáticamente la literatura de la última década procedente de Web of Science, ScienceDirect y Scopus. El potencial de los Sistemas de Tutoría Inteligente está claramente respaldado por los hallazgos actuales. Sin embargo, hay resultados contradictorios con respecto al rendimiento de los estudiantes. Esta revisión plantea una discusión sobre los resultados de cara a comprender mejor la relación entre tecnología e instrucción en escritura.

Palabras clave: Escritura, Instrucción, Sistemas de tutoría inteligente..

Abstract: Abundant meta-analyses have shown how the use of technology is an effective practice in the field of writing instruction. However, most of these studies have focused on the effects of the word processor to improve student writing. This article investigates and shows the effects of new forms of instruction in writing, such as intelligent tutoring systems (ITS), one of the most sophisticated tools in the field of virtual learning environments. The literature of the last decade from the Web of Science, ScienceDirect and Scopus has been systematically reviewed. The potential of intelligent tutoring systems is clearly supported by the current findings. However, there are contradictory results concerning students’ performance. This review presents a discussion on the results in order to understand in more detail the relationship between technology and instruction in writing.

Keywords: Writing, Instruction, Intelligent tutoring systems..

En las últimas décadas, la relación entre tecnología y educación ha sido un foco importante de investigación por parte de disciplinas como la psicología educativa o la ingeniería informática (Lajoie y Azevedo, 2006). Dentro del campo de la instrucción en escritura, numerosos estudios se han centrado en cómo la tecnología podría apoyar no sólo la enseñanza de la competencia escrita, sino también el propio proceso de escritura de los estudiantes con y sin dificultades del aprendizaje (Crinon y Legros, 2002; Englert, Wu, y Zhao, 2005; Macarthur, 2006; MacArthur, 2009; Morphy y Graham, 2012; Peterson-Karlan, 2007; Quinlan, 2004).

El debate sobre los resultados en torno a los efectos de la tecnología se ha dividido en dos categorías atendiendo a qué tecnologías apoyan qué componentes del proceso de escritura (Hayes y Flower, 1980) como son: a) el uso de herramientas que apoyan los aspectos más mecánicos de la escritura como la ortografía, la gramática o el vocabulario (Barrera III, Rule y Diemart ,2001; Lowther, Ross y Morrison ,2003; MacArthur y Cavalier, 2004) y b) el uso de programas que apoyan procesos de orden superior, como la planificación, la metacognición o la revisión textual (De Smet, Brand-Gruwel, Leijten y Kirschner, 2014; Wilson y Czik ,2016; Zaid, 2011) .

Dentro de la primera categoría, una de las herramientas más examinadas ha sido el procesador de Word, cuyos efectos significativos en el rendimiento escrito de los estudiantes ha sido bien demostrado (Goldberg, Russell y Cook, 2003). En la misma línea, otro tipo de softwares como los correctores ortográficos, software de predicción de palabras y el reconocimiento de voz también han demostrado ser efectivos para apoyar el proceso de transcripción, sobremanera, en estudiantes con dificultades del aprendizaje (Peterson-karlan, 2011). Si bien es cierto que, a priori, estas herramientas añaden ciertas ventajas respecto a la escritura a mano, lo cierto, es que poco tienen que ver con la instrucción en procesos y subprocesos de orden superior como la metacognición o la planificación (Bangert-Drowns, 1993; Macarthur, 2006). En este sentido, la investigación viene señalando el rol fundamental que juega el despliegue de los procesos de planificación y revisión textual en la adquisición de una adecuada competencia escrita y de cómo, aprendices de todas las edades, tienen problemas para desarrollar estas habilidades (MacArthur, Graham y Fitzgerald, 2008). Los avances tecnológicos han intentado dar respuesta a esta problemática desarrollando diferentes sistemas o softwares para instruir en cada uno de los procesos y subprocesos que comprende la escritura, aunque no necesariamente en el mismo paquete de software (Pan y Zbikowski, 1997.) En consecuencia, es posible encontrar herramientas específicas para estimular estrategias de planificación, tales como los esquemas y mapas electrónicos (De Smet, Brand-Gruwel, Broekkamp y Kirschner, 2012) hasta programas de procesamiento del lenguaje, como son los sistemas AWE (Automated Writing Evaluation) o AEE (Automated Essay Evaluation) que ofrecen una combinación de retroalimentación y evaluación que, aunque varía en cantidad dependiendo del sistema, no en la calidad (Shermis, Burstein, Elliot, Miel y Folt, 2017; Warschauer y Ware, 2006)

Una manera de proporcionar un contexto que integre simultáneamente la instrucción de todo el proceso de escritura, en combinación con la práctica y la evaluación textual, es a través de los sistemas de tutoría inteligente (STI) (Allen, Jacovina, Danielle y McNamara, 2017). Los STI, tal y como afirman Lajoie y Azevedo (2006) son una de las herramientas más sofisticadas en el área de los entornos virtuales. Basados en la interacción uno-a-uno entre el alumno y el sistema, su finalidad es la de involucrar a los estudiantes en varios tipos de procesamiento cognitivo y fomentar un aprendizaje óptimo (Lajoie y Azevedo, 2006; Shute, Lajoie y Gluck, 2000). La mayoría de los STI en su diseño, integran tres módulos principales (Carbonell, 1970; Cataldi y Lage 2009; Lenhard, Baier, Endlich, Schneide y Hoffmann, 2013): a) módulo de tutoría que instruye en el conocimiento, selecciona estrategias didácticas y monitorea el desempeño del estudiante durante la lección atendiendo a su estilo de aprendizaje; b) módulo del alumno que almacena el conocimiento sobre el aprendiz a través de una evaluación cognitiva continua; c) módulo de dominio que recopila el conjunto del contenido, materiales y otros parámetros del sistema necesarios para el funcionamiento del STI. La interacción entre estos módulos parece emular la conducta de un tutor humano al controlar y adaptar de manera dinámica y sistemática el aprendizaje individual de los estudiantes (Azevedo y Hadwin, 2005).

Los STI bien diseñados han demostrado ganancias significativas en el aprendizaje de dominios muy diferentes (Shute, Lajoie y Gluck, 2000). Wijekumar, Meyer y Lei (2013) diseñaron un STI para mejorar la comprensión lectora de estudiantes de 4º y 5º de Primaria. El STI basado en la instrucción estratégica, proporcionó práctica con andamiaje y tareas de transferencia, así como ciclos de evaluación y retroalimentación individualizada sobre el desempeño en cada tarea. Los autores encontraron que las aulas que integraron el STI en comparación con los grupos control, mostraron un mejor desempeño con tamaños del efecto moderados a grandes en todas las medidas de evaluación. En la misma línea, Graesser et al. (2003) implementaron “Why/AutoTuto” un tutor que guiaba en la resolución y construcción de respuestas a problemas de física cualitativa, ofreciendo evaluación y retroalimentación en el aprendizaje de estudiantes universitarios. Los resultados del estudio revelaron que el grupo que utilizó Why/AutoTutor obtuvo la mayor ganancia de aprendizaje en comparación con el grupo que recibió el mismo contenido, pero en formato tradicional y el grupo control, sin material de aprendizaje. Por lo tanto, y de acuerdo con Vanlehn (2011), los STI son medios de instrucción eficaces en la medida en la que proporcionan orientación, materiales de aprendizaje y pueden evaluar con precisión a los alumnos, diagnosticar deficiencias en el rendimiento y usar esa información para adaptar la experiencia de aprendizaje de manera adecuada (Shute, Lajoie y Gluck, 2000).

En base a lo expuesto anteriormente, no cabe duda del creciente interés de los investigadores y educadores en el uso de las nuevas tecnologías y la relación entre esta y el rendimiento en escritura. Por lo tanto, se precisa analizar la investigación publicada para ofrecer datos actualizados que aporte implicaciones para la práctica educativa. A través de una revisión sistemática se pretende mostrar el estado del arte en torno a qué tipos de STI están disponibles para el aprendizaje de la competencia escrita y cuáles son sus efectos.

MÉTODO

Proceso de búsqueda y selección

La búsqueda sistemática abarcó el análisis de los trabajos publicados en el periodo comprendido entre los años 2000 hasta la actualidad. Se tomó como fecha de inicio el año 2000 coincidiendo con el auge de las TIC en el ámbito de la escritura (Peterson-Karlan, 2011). Se emplearon las siguientes bases de datos: Web of Science, ScienceDirect y Scopus, empleando las siguientes palabras clave: writing, writing instruction, intelligent tutoring systems. Paralelamente, se realizó una búsqueda manual en los siguientes meta-análisis: “Meta-analysis of writing instruction for adolescent students” (Graham y Perin, 2007); “Meta-analysis of writing instruction for students in the elementary grades” (Graham, McKeown, Kiuhara y Harris, 2012); “Teaching children to write: A meta-analysis of writing intervention research” (Koster, Tribushinina, Jong, y Bergh, 2015); “Meta-analysis of single subject design writing intervention research” (Rogers y Graham, 2008); “Meta-analysis of writing interventions for students with learning disabilities” (Gillespie y Graham, 2014).

Criterios de inclusión y de exclusión

En línea con el objetivo del presente estudio, para que las investigaciones fueran incluidas en este estudio, se tuvieron en cuenta los siguientes criterios de inclusión: (a) ser un estudio cuyo principal objetivo fuese el análisis del efecto de la herramienta en el producto escrito y/o en los procesos cognitivos implicados en la escritura, esto es, planificación, transcripción y revisión (Hayes y Flower, 1980); (b) ser un estudio experimental, quasi-experimental o de caso único; (c) el estudio debía incluir una medida de la calidad del producto escrito y/o de mejora en los procesos cognitivos; (c) se seleccionaron estudios de Educación Primaria, Secundaria o Educación Superior.

Como criterios de exclusión, se adoptaron las siguientes medidas: (a) se descartaron aquellos estudios cuyas intervenciones tuvieron lugar en una muestra de estudiantes con necesidades educativas especiales (dada la heterogeneidad del concepto NEE y debido a la propia naturaleza de este tipo de alumnado que requieren de intervenciones específicas diferentes a la ordinaria (Mónico, Pérez-Sotomayor, Areces, Rodríguez y García, 2017)); (b) quedaron excluidas aquellas investigaciones en las que el STI se aplicó exclusivamente como herramienta de apoyo en el proceso de escritura sin ofrecer ningún tipo de instrucción; (c) no se tuvieron en cuenta para esta revisión capítulos de libros ni trabajos no publicados.

Codificación de los estudios

El contenido de cada artículo se codificó en una base de datos que recogió los siguientes campos: a) autores; b) país; c) objetivo; d) diseño; e) muestra; f) sistema de tutoría inteligente; g) variables evaluadas; y h) resultados obtenidos. En la Tabla 1 figuran los estudios seleccionados.

RESULTADOS

El proceso de búsqueda dio lugar a 542 referencias cuyos títulos y resúmenes fueron examinadas. Atendiendo a los criterios de inclusión, el 98% fueron excluidas, obteniéndose un total de 6 estudios empíricos. En la figura 1 puede verse el diagrama de flujo que representa el procedimiento seguido en la búsqueda bibliográfica. La descripción de los estudios se detalla a continuación según la finalidad del sistema: a) diseñados para instruir y apoyar en el proceso de escritura (n=4); b) diseñados para la instrucción en habilidades específicas de escritura (por ejemplo, resumir, argumentar y contraargumentar o escritura creativa) (n=2).

STI diseñados para instruir en el proceso de escritura

Holdich y Chung (2003) implementaron en estudiantes de Educación Primaria un tutor inteligente, Harry, para proporcionar instrucción en procesos de orden superior. Harry está basado en un modelo de escritura experta que imparte conocimiento sobre diferentes subprocesos; lluvia de ideas, planificación, composición, revisión-edición, ofreciendo andamiaje durante cada una de las tareas. A través de la estrategia ¿Qué sigue? el estudiante construye la narrativa paso a paso. Los resultados postest demostraron que los estudiantes que utilizaron a Harry escribieron mejores historias y emplearon un proceso de revisión característico de escritores maduros. En el estudio de Rowley y Meyer (2003) se utilizó el software CTW (Computer Tutor for Writers) en estudiantes de Primaria y Secundaria. Con la ayuda de un tutor llamado “maestro” los estudiantes debían completar diferentes módulos de trabajo distribuidos en seis categorías: a) fijación de objetivos y análisis de ideas; (b) análisis del tópico y técnicas de organización de ideas; (c) planificación y elaboración de esquemas y diagramas; (d) escritura del texto: elaboración de oraciones y párrafos; (e) revisión y selección del proceso de edición. Los autores no encontraron diferencias significativas en la calidad textual del grupo control y experimental. El aprendizaje de los estudiantes del grupo control disminuyó un 1%, y tan sólo 36 estudiantes del grupo experimental, obtuvieron una ganancia del 11%. En la misma línea Proske, Narciss y Proske (2012) desarrollaron un entorno de aprendizaje, Escribo, para guiar y facilitar la escritura de textos científicos a estudiantes de Educación Superior. Escribo organiza el proceso de escritura en cinco subtareas de manera que el estudiante adquiriera conciencia y conocimiento acerca de cada una de las actividades que involucra la escritura académica exitosa: a) recopilación de información; b) planificación; c) redacción; d) revisión del texto. Cuando el estudiante finalizaba la tarea se le proporcionaba retroalimentación informativa, dándole oportunidades para la repetición y corrección de errores textuales. Los autores demostraron que los universitarios que trabajaron con Escribo escribieron textos más coherentes y pasaron más tiempo planificando. Los autores Roscoe y McNamara (2013) diseñaron W-Pal (Writing Pal) un sistema para mejorar la escritura de estudiantes de Educación Secundaria. W-Pal se compone de ocho módulos de instrucción estratégica impartidos por agentes pedagógicos a través de video-lecciones, en combinación con práctica basada en juegos y práctica de redacción, ofreciendo evaluación y feedback formativos automatizados. El análisis y comparación de los productos textuales pre/postest reveló que tras la instrucción con W-pal, los textos eran de mayor longitud, con mejor estructura, coherencia y con un vocabulario más sofisticado.

TABLA 1
TABLA 1

SÍNTESIS DE LOS ARTÍCULOS INCLUIDOS EN LA REVISIÓN SEGÚN LOS CRITERIOS DE INCLUSIÓN

FIGURA 1
FIGURA 1

PROCESO DE SELECCIÓN DE LA MUESTRA DE ARTÍCULOS A ANALIZAR

STI diseñados para la instrucción en habilidades específicas de escritura

Con el objetivo de facilitar la tarea de resumen Franzke, Kintsch, Caccamise, Johnson y Dooley (2005) emplearon Summary Street®, un tutor que ofrece un contexto de apoyo para que estudiantes de 13 a 14 años practiquen la redacción de resúmenes. A través del análisis semántico latente, Summary Street compara la similitud de significado entre el resumen de un alumno y el texto fuente, ofreciendo información que permite saber en qué medida el resumen cubre adecuadamente las ideas principales y qué aspectos necesitan más trabajo. El feedback ofrecido por el sistema involucró a los estudiantes en ciclos sucesivos de revisión hasta que se cumplieron los criterios de contenido. La investigación demostró que los resúmenes escritos con Summary Street eran superiores en varias medidas: calidad general, contenido más completo y mejor organizado, incluso cuando los textos originales se hicieron más largos y más complejos. De manera similar, Sung et al. (2016) desarrollaron un sistema inteligente de evaluación para mejorar la escritura de resúmenes de estudiantes de Primaria. El sistema proporcionaba dos tipos de retroalimentación: semántica y de concepto. La primera, comparaba la similitud semántica entre las oraciones del resumen del estudiante y un resumen de expertos. La segunda proporcionaba un mapa conceptual para ayudar a entender la estructura del texto de origen, y resaltaba las palabras del resumen del estudiante que eran relevantes para el mapa conceptual. En este estudio los autores examinaron los efectos de ambos tipos de retroalimentación. Los resultados mostraron que a) solo la retroalimentación del concepto afectó significativamente a la mejora de la escritura de resúmenes y b) el número de revisiones fue significativamente menor en el postest. Los autores argumentaron que este fenómeno respalda la idea de que, una vez se dominan las habilidades de escritura, se puede obtener un resultado satisfactorio con menor número de revisiones.

DISCUSIÓN Y CONCLUSIONES

La investigación sobre la composición escrita es una tarea compleja en tanto que la escritura es un fenómeno de naturaleza multidimensional difícil de dominar (De la Paz, 2007; Flower y Hayes, 1980). De los avances científicos de los últimos años es posible afirmar que, el camino hacia su control depende, no sólo de la instrucción explícita o implícita en el conocimiento y las estrategias para su desarrollo, sino también del contexto en el que se produce la escritura (Graham, Harris y Chambers, 2016; Graham, Gillespie y McKeown, 2003). Proporcionar un contexto de apoyo para el aprendizaje de la escritura requiere considerar las herramientas que se utilizan tanto para su instrucción como para la composición (Graham, Gillespie y McKeown, 2003). Una herramienta prometedora son los STI que, basados en la inteligencia artificial, permiten transferir un conocimiento estratégico e individualizado acompañado de una evaluación dinámica del progreso del alumno (Holdich y Chung, 2003; Proske, Narciss y McNamara, 2012; Roscoe y McNamara, 2013; Rowley y Meyer, 2003). Sin embargo, como se constata en el presente trabajo, la investigación no arroja resultados consistentes. Una posible explicación está en relación con la capacidad del sistema para proporcionar feedback formativo. En el trabajo de Rowley y Meyer (2003) aunque se instruyó en la totalidad de los procesos que comprende la escritura, no se ofreció una retroalimentación mientras los estudiantes completaban las tareas de escritura. Por el contrario, en las investigaciones de Holdich y Chung (2003), Proske, Narciss y McNamara (2012) y Roscoe y McNamara (2013), aunque se proporcionó instrucción en un menor número de procesos, ofrecieron una combinación de práctica y feedback sobre producto textual que pareció ser un factor decisivo para alcanzar resultados positivos en términos de calidad textual.

En este aspecto, la literatura viene evidenciando que la emisión de retroalimentación formativa como parte de la enseñanza es un factor crucial que mejora significativamente el rendimiento escrito (Graham, Hebert y Harris, 2015). Sin embargo, el control de dicho feedback, esto es: qué tipo de retroalimentación (positiva o negativa) (Mitrovic, Ohlsson y Barrow, 2013), cómo debe ser mostrada (estrategias de dar-responder, o estrategias de respuesta-respuesta) (Ferreira y Atkinson, 2009) y en qué momento del aprendizaje, representa uno de los aspectos más difíciles a solventar (Allen, Jacovina y McNamara, 2017; Baker, Gersten y Scanlon, 2002). Si bien esta decisión debería derivarse de modelos teóricos y, en mayor medida, de los resultados de las investigaciones empíricas (Shute, Lajoie y Gluck, 2000), lo cierto es, que la escasa e insuficiente investigación unido a la propia tarea de escritura, caracterizada por ser “un dominio mal definido” supone todo un reto para los investigadores (Aleven et al., 2008; Fournier-Viger, Nkambou y Nguifo, 2010; Roscoe y McNamara, 2013). No obstante, cada vez son más los STI que incorporan los sistemas de evaluación AES (Automated Essay Scoring) y AWE (Automated Writing Evaluation) como herramientas asesoras que proporcionan datos de rendimiento a nivel de proceso o de producto. En los estudios donde los STI integraban estos sistemas (Franzke et al., 2005; Proske, Narciss y McNamara, 2012; Roscoe y McNamara, 2013; Sung et al., 2016) los resultados sugirieron que los estudiantes, no sólo mejoran en aspectos a nivel mecánico o microestructural tales como la gramática o la ortografía, sino también a nivel macroestructural o de contenido, incluso con menor número de revisiones (Sung et al., 2016).

En base a los resultados derivados de esta revisión podemos afirmar que los STI pueden ser una herramienta de apoyo para el profesorado evitando algunas dificultades inherentes al propio proceso de enseñanza, como son la propia naturaleza de la clase o la falta de tiempo. En este sentido, los STI pueden ofrecer una mayor disponibilidad para centrarse en el conjunto de objetivos instruccionales que implica la escritura (Graham, Gillespie y McKeown, 2013), como involucrar a los estudiantes en actividades de planificación o revisión, más allá de la enseñanza de la ortografía o la gramática; brindar apoyo individual y específico a cada estudiante según sus necesidades o la posibilidad de práctica y feedback continuo e inmediato.

Sin embargo, la cuestión es ¿son los STI un recurso totalmente eficaz? Una respuesta directa a esta pregunta no puede ser dada por varias razones; en primer lugar y, de acuerdo con la literatura (MacArthur, 2006), son pocos los estudios desarrollados en esta área, lo que hace que los resultados sean difíciles de generalizar. Aun cuando los investigadores emplean la misma tecnología, no es garantía para obtener resultados concluyentes en tanto que las variables contextuales juegan un papel crucial y mediador de los resultados. Variables contextuales tales como: el rol del docente con relación al STI, duración del entrenamiento y demostración práctica del uso de la herramienta, el entorno de aprendizaje (formal o informal), la experiencia previa del profesor y del alumno con el software o las actividades de aprendizaje y objetivos instruccionales, deben ser variables presentadas completamente al lector (Chauhan, 2017; Schmid et al., 2014; Schwartz, Van Der Geest y Kreuzen, 1992). De suma importancia es controlar y describir el contenido de estas variables independientes (Rijlaarsdam, Janssen, Rietdijk y van Weijen, 2017) que permitiría la replicación de las intervenciones para, en último término, obtener una comprensión más profunda de las relaciones entre tecnología e instrucción en escritura. Por lo tanto, si se quiere avanzar en el estudio de la inteligencia artificial y su impacto en la instrucción, es necesario que la investigación siga trabajando en la comprensión, desarrollo o adaptación de este tipo de tecnología para descubrir qué elementos generan los mayores avances en el rendimiento y en qué condiciones.

Para concluir, nos preguntamos qué sucede cuando los estudiantes se enfrentan al aprendizaje en este tipo de entornos virtuales. En este sentido, aprender en entornos virtuales es especialmente exigente en términos de autorregulación de la conducta (Azevedo et al., 2012). En consecuencia, parece ser una cuestión importante examinar la relación entre los procesos de autorregulación, aprendizaje online y el rendimiento en escritura (Allen y McNamara, 2015).

LIMITACIONES DEL ESTUDIO

Dado el pequeño número de estudios que comprende nuestra muestra, el potencial de las conclusiones se encuentra limitado. No obstante, para nuestro objetivo, esto es, informar acerca de nuevos entornos de aprendizaje e instrucción en la escritura, encontramos que los resultados son significativos. Sería interesante que futuros estudios pudieran ampliar y verificar los hallazgos anteriores con investigaciones que utilicen no sólo STIs, sino también otro tipo de herramientas tecnológicas.

Conflicto de intereses

No existe conflicto de intereses

REFERENCIAS

Aleven, V., Ashley, K., Lynch, C., & Pinkwart, N. (junio, 2008). Intelligent tutoring systems for ill-defined domains: Assessment and feedback in ill-defined domains. Trabajo presentado en el 9th International Conference on Intelligent Tutoring Systems, Montreal, Canada. Recuperado de https://pdfs.semanticscholar.org/bc92/f01e2282eacc6bf714db10958f70401f6d29.pdf

Allen, L. K., & McNamara, D. S. (junio, 2015). Promoting self-regulated learning in an intelligent tutoring system for Writing. Trabajo presentado en International Conference on Artificial Intelligence in Education, Madrid, España. Recuperado de https://pdfs.semanticscholar.org/bdaf/a2e6e9f6654e0d7f1751f60395b549ad1758.pdf

Allen, L., Matthew, E.J., & McNamara, D.S. (2017). Computer-based writing instruction. In C.A. Macarthur, S Graham & J. Fitzgerald (Eds.),Handbook of writing research, (pp. 316-228). New York, NY: Guilford Press.

Azevedo, R., & Hadwin, A. F. (2005). Scaffolding self-regulated learning and metacognition–Implications for the design of computer-based scaffolds. Instructional Science, 33, 367–379.doi: 10.1007/s11251-005-1272-9

Azevedo, R., Behnagh, R., Duffy, M., Harley, J. M., & Trevors, G. J. (2012). Metacognition and self-regulated learning in student-centered learning environments. In Land, S., & Jonassen, D (Eds.), Theoretical foundations of student-center learning environments (pp. 216–260). New York, NY: Routledge

Baker, S., Gersten, R., & Scanlon, D. (2002). Procedural facilitators and cognitive strategies: Tools for unraveling the mysteries of comprehension and the writing process, and for providing meaningful access to the general curriculum. Learning Disabilities Research y Practice, 17(1), 65-77.doi: 10.1111/1540-5826.00032

Bangert-Drowns, R. L. (1993). The word processor as an instructional tool: A meta-analysis of word processing in writing instruction. Review of Educational Research, 63(1), 69-93. doi: 10.2307/1170560

Barrera III, M. T., Rule, A. C., & Diemart, A. (2001). The effect of writing with computers versus handwriting on the writing achievement of first-graders. Information Technology in Childhood Education Annual, 2001(1), 215-229.

Carbonell, J. R. (1970). AI in CAI: An artificial-intelligence approach to computer-assisted instruction. IEEE Transactions on Man-machine Systems, 11(4), 190-202. doi: 10.1109/TMMS.1970.299942

Cataldi, Z., & Lage, F. J. (2009). Sistemas tutores inteligentes orientados a la enseñanza para la comprensión. Edutec. Revista Electrónica de Tecnología Educativa, 28. doi: 10.21556/edutec.2009.28.456

Chauhan, S. (2017). A meta-analysis of the impact of technology on learning effectiveness of elementary students. Computers & Education, 105, 14-30. doi: 10.1016/j.compedu.2016.11.005

Crinon, J., & Legros, D. (2002). The semantic effects of consulting a textual database on rewriting. Learning and Instruction, 12(6), 605-626. doi: 10.1016/S0959-4752(01)00031-7

De Smet, M. J., Brand-Gruwel, S., Broekkamp, H., & Kirschner, P. A. (2012). Write between the lines: Electronic outlining and the organization of text ideas. Computers in Human Behavior, 28(6), 2107-2116. doi: 10.1016/j.chb.2012.06.015

De Smet, M. J., Brand-Gruwel, S., Leijten, M., & Kirschner, P. A. (2014). Electronic outlining as a writing strategy: Effects on students’ writing products, mental effort and writing process. Computers & Education, 78, 352-366. doi: 10.1016/j.compedu.2014.06.010

Englert, C. S., Wu, X., & Zhao, Y. (2005). Cognitive tools for writing: Scaffolding the performance of students through technology. Learning Disabilities Research & Practice, 20(3), 184-198. doi: 10.1111/j.1540-5826.2005.00132.x

Ferreira, A., & Atkinson, J. (2009). Designing a feedback component of an intelligent tutoring system for foreign language. Knowledge-Based Systems 22(7), 496-501. doi: 10.1016/j.knosys.2008.10.012

Flower, L., & Hayes, J. R. (1980). The cognition of discovery: Defining a rhetorical problem. College Composition and Communication, 31(1), 21-32.

Fournier-Viger P., Nkambou R., Nguifo E.M. (2010) Building Intelligent Tutoring Systems for Ill-Defined Domains. In: Nkambou R., Bourdeau J., Mizoguchi R. (Eds.), Advances in intelligent tutoring systems. Studies in computational intelligence (pp.81-101). Springer, Berlin: Heidelberg

Franzke, M., Kintsch, E., Caccamise, D., Johnson, N., & Dooley, S. (2005). Summary Street®: Computer support for comprehension and writing. Journal of Educational Computing Research, 33(1), 53-80. doi: 10.2190/DH8F-QJWM-J457-FQVB

Gillespie, A., & Graham, S. (2014). A meta-analysis of writing interventions for students with learning disabilities. Exceptional Children, 80(4), 454-473. doi: 10.1177/0014402914527238

Goldberg, A., Russell, M., & Cook, A. (2003). The effect of computers on student writing: A meta-analysis of studies from 1992 to 2002. The Journal of Technology, Learning and Assessment, 2(1).

Graesser, A., Jackson, G., Matthews, E., Mitchell, H., Olney, A., Ventura, M., et al. (2003). Why/AutoTutor: A test of learning gains from a physics tutor with natural language dialog. Proceedings of the Annual Meeting of the Cognitive Science Society, 25(25), 1069-7977. Trabajo recuperado de https://escholarship.org/uc/item/6mj3q2v1.

Graham, S., & Perin, D. (2007). A meta-analysis of writing instruction for adolescent students. Journal of Educational Psychology, 99(3), 445-476. doi: 10.1037/0022-0663.99.3.445

Graham, S., Gillespie, A., & McKeown, D. (2013). Writing: Importance, development, and instruction. Reading and Writing, 26(1), 1-15. doi: 10.1007/s11145-012-9395-2

Graham, S., Harris, K. R., & Chambers, A. B. (2016). Evidence-based practice and writing instruction. In MacArthur, C.A., Graham, S., & Fitzgerald, J (Eds.), Handbook of writing research (pp.211-226). New York, NY: Guilford Press.

Graham, S., Hebert, M., & Harris, K. R. (2015). Formative assessment and writing: A meta-analysis. The Elementary School Journal, 115(4), 523-547. doi: 10.1086/681947

Graham, S., McKeown, D., Kiuhara, S., & Harris, K. R. (2012). A meta-analysis of writing instruction for students in the elementary grades. Journal of educational psychology, 104(4), 879-896. doi: 10.1037/a0029185

Holdich, C. E., & Chung, P. W. (2003). A ‘computer tutor’to assist children develop their narrative writing skills: conferencing with HARRY. International Journal of Human-Computer Studies, 59(5), 631-669. doi: 10.1016/S1071-5819(03)00086-7

Koster, M. P., Tribushinina, E., De Jong, P., & Van den Bergh, H. H. (2015). Teaching children to write: A meta-analysis of writing intervention research. Journal of Writing Research, 7(2), 299-324.doi: 10.17239/jowr-2015.07.02.2

Lajoie, S., & Azevedo, R. (2006) Teaching and Learning in Technology-Rich Environments. In Patricia A. Alexander, A.P., & Winne, H. P. (Eds.), Handbook of educational psychology Routledge (pp.803-820). New York, NY: Routledge

Lenhard, W., Baier, H., Endlich, D., Schneider, W., & Hoffmann, J. (2013). Rethinking strategy instruction: direct reading strategy instruction versus computer-based guided practice. Journal of Research in Reading, 36(2), 223-240. doi: 10.1111/j.1467-9817.2011.01505.x

Lowther, D. L., Ross, S. M., & Morrison, G. M. (2003). When each one has one: The influences on teaching strategies and student achievement of using laptops in the classroom. Educational Technology Research and Development, 51(3), 23-44. doi: 10.1007/BF02504551

MacArthur, C. A. (2006). The effects of new technologies on writing and writing processes. In C. A. MacArthur, S. Graham, & J. Fitzgerald (Eds.), Handbook of writing research (pp. 248–262). New York: The Guilford Press

MacArthur, C. A. (2009). Reflections on research on writing and technology for struggling writers. Learning Disabilities Research & Practice, 24(2), 93-103. doi: 10.1111/j.1540-5826.2009.00283.x

MacArthur, C. A., & Cavalier, A. R. (2004). Dictation and speech recognition technology as test accommodations. Exceptional Children, 71(1), 43-58. doi: 10.1177/001440290407100103

Mitrovic, A., Ohlsson, S., & Barrow, D. K. (2013). The effect of positive feedback in a constraint-based intelligent tutoring system. Computers & Education, 60(1), 264-272. doi: 10.1016/j.compedu.2012.07.002

Mónico, P., Pérez-Sotomayor, S. M., Areces, D., Rodríguez, C., & García, T. (2017). Afrontamiento de Necesidades Específicas de Apoyo Educativo (NEAE) y burnout en el profesorado. Revista de Psicología y Educación, 12(1), 35-54.

Morphy, P., & Graham, S. (2012). Word processing programs and weaker writers/readers: A meta-analysis of research findings. Reading and Writing, 25(3), 641-678. doi: 10.1007/s11145-010-9292-5

Pan, A. C., & Zbikowski, J. M. (1997). Emerging technology for writing instruction: new directions for teachers. Computers in the Schools, 13(3-4), 103-118. doi: 10.1300/J025v13n03_08

Paz, S. D. L. (2007). Managing cognitive demands for writing: Comparing the effects of instructional components in strategy instruction. Reading & Writing Quarterly, 23(3), 249-266. doi: 10.1080/10573560701277609

Peterson-Karlan, G. R. (2011). Technology to support writing by students with learning and academic disabilities: Recent research trends and findings. Assistive Technology Outcomes and Benefits, 7(1), 39-62.

Proske, A., Narciss, S., & McNamara, D. S. (2012). Computer-based scaffolding to facilitate students’ development of expertise in academic writing. Journal of Research in Reading, 35(2), 136-152. doi: 10.1111/j.1467-9817.2010.01450.x

Quinlan, T. (2004). Speech recognition technology and students with writing difficulties: Improving fluency. Journal of Educational Psychology, 96(2), 337-346. doi: 10.1037/0022-0663.96.2.337

Rijlaarsdam, G; Janssen., T; Rietdijk, S., & van Weijen, D.(2017) Reporting Design Principles for Effective Instruction of Writing: Interventions as Constructs. In Fidalgo, R., Harris, K. R., & Braaksma, M. (Eds.), Design principles for teaching effective writing: Theoretical and empirical grounded principles (pp. 280-313). Leiden: Brill.

Rogers, L. A., & Graham, S. (2008). A meta-analysis of single subject design writing intervention research. Journal of Educational Psychology, 100(4), 879-906. doi: 10.1037/0022-0663.100.4.879

Roscoe, R. D., & McNamara, D. S. (2013). Writing Pal: Feasibility of an intelligent writing strategy tutor in the high school classroom. Journal of Educational Psychology, 105(4), 1010-1025. doi: 10.1037/a0032340

Rowley, K., & Meyer, N. (2003). The effect of a computer tutor for writers on student writing achievement. Journal of Educational Computing Research, 29(2), 169-187. doi: 10.2190/3WVD-BKEY-PK0D-TTR7

Schmid, R. F., Bernard, R. M., Borokhovski, E., Tamim, R. M., Abrami, P. C., Surkes, M. A., C.Wade, A.,& Woods, J. (2014). The effects of technology use in postsecondary education: A meta-analysis of classroom applications. Computers & Education, 72, 271-291. doi: 10.1016/j.compedu.2013.11.002

Schwartz, H. J., van der Geest, T., & Smit-Kreuzen, M. (1992). Computers in writing instruction. International Journal of Educational Research, 17(1), 37-50. doi: 10.1016/0883-0355(92)90040-D

Shermis, M. D., & Burstein, J. C., Elliot,N., Miel,S.,& Folt, P.(2017). Automated writing evaluation. An expanding body of knowledge. In C.A. Macarthur, S Graham & J. Fitzgerald (Eds.), Handbook of writing research (pp. 395-409). New York, NY: Guilford Press.

Shute, V. J., Lajoie, S. P., & Gluck, K. A. (2000). Individualized and group approaches to training. In S. Tobias & J. D. Fletcher (Eds.), Training and retraining: A handbook for business, Industry, government, and the military (pp. 171-207). New York, NY: Macmillan.

Sung, Y. T., Liao, C. N., Chang, T. H., Chen, C. L., & Chang, K. E. (2016). The effect of online summary assessment and feedback system on the summary writing on 6th graders: The LSA-based technique. Computers & Education, 95, 1-18. doi: 10.1016/j.compedu.2015.12.003

VanLehn, K. (2011). The relative effectiveness of human tutoring, intelligent tutoring systems, and other tutoring systems. Educational Psychologist, 46(4), 197-221. doi: 10.1080/00461520.2011.611369

Warschauer, M., & Ware, P. (2006). Automated writing evaluation: Defining the classroom research agenda. Language teaching research, 10(2), 157-180.doi: 10.1191/1362168806lr190oa

Wijekumar, K. K., Meyer, B. J., & Lei, P. (2013). High-fidelity implementation of web-based intelligent tutoring system improves fourth and fifth graders content area reading comprehension. Computers & Education, 68, 366-379. doi: 10.1016/j.compedu.2013.05.021

Wilson, J., & Czik, A. (2016). Automated essay evaluation software in English Language Arts classrooms: Effects on teacher feedback, student motivation, and writing quality. Computers & Education, 100, 94-109. doi: 10.1016/j.compedu.2016.05.004

Zaid, M. A. (2011). Effects of web-based pre-writing activities on college EFL students’ writing performance and their writing apprehension. Journal of King Saud University-Languages and Translation, 23(2), 77-85. doi: 10.1016/j.jksult.2011.04.003

HTML generado a partir de XML-JATS4R por