paint-brush
Historia del uso de la IA en la educaciónpor@escholar
Nueva Historia

Historia del uso de la IA en la educación

Demasiado Largo; Para Leer

Este artículo recorre la historia de la IA en la educación, detallando el desarrollo de modelos de IA generativa desde la década de 1960 hasta el presente, incluidas sus aplicaciones y su impacto en el aprendizaje personalizado y la tecnología educativa.
featured image - Historia del uso de la IA en la educación
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture
0-item

Autor:

(1) Mohammad AL-Smad, Qatar University, Qatar y (correo electrónico: [email protected]).

Tabla de enlaces

Resumen e introducción

Historia del uso de la IA en la educación

Metodología de investigación

Revisión de literatura

Resumen

Conclusión y referencias

2. Historia del uso de la IA en la educación

La historia del uso de la IA en la educación se remonta a la década de 1960, con el desarrollo de los primeros sistemas de tutoría inteligentes. Estos sistemas fueron diseñados para brindar instrucción personalizada a los estudiantes, adaptada a sus necesidades individuales y estilos de aprendizaje. Sin embargo, antes de profundizar en la evolución del uso de la IA generativa en la educación, debemos comprender la historia y la evolución de los modelos de IA generativa.


2.1. La historia y evolución de los modelos de IA generativa

Los modelos de Inteligencia Artificial Generativa (IA), en particular los Modelos de Lenguaje (LLM), han sido testigos de un progreso notable a lo largo de los años, transformando el panorama del procesamiento del lenguaje natural y una amplia gama de otras tareas creativas (Susarla et al., 2023). En esta sección, profundizamos en las raíces históricas y la trayectoria evolutiva de estos modelos, destacando los hitos clave que han dado forma a su desarrollo.


• Los primeros días del modelado del lenguaje: la historia del desarrollo de los LLM comenzó en las décadas de 1950 y 1960 con el surgimiento del procesamiento estadístico del lenguaje natural (PLN). En sus inicios, los modelos lingüísticos empleaban principalmente metodologías estadísticas para estimar la probabilidad de una palabra o secuencia de palabras determinada dentro de un contexto lingüístico. Los N-gramas y secuencias de n palabras fueron técnicas fundamentales durante este período (Russell & Norvig, 2010).


• De N-gramas a incrustaciones de palabras: a mediados de la década de 2000 comenzó a surgir un cambio fundamental de los modelos basados en n-gramas al uso de incrustaciones de palabras con la introducción del algoritmo "Word2Vec" de (Mikolov et al., 2013). ) en 2013. Este enfoque innovador dependía de la utilización de representaciones vectoriales para capturar el significado semántico de las palabras. Este avance sentó las bases para desarrollos posteriores en el modelado del lenguaje.


• Avances en los modelos de aprendizaje profundo basados en texto (es decir, PNL de secuencia a secuencia): la integración de incrustaciones de palabras en el modelado del lenguaje marcó el comienzo de una nueva era. Estas representaciones vectoriales sirvieron como entrada para modelos de aprendizaje profundo, como las redes neuronales recurrentes (RNN) y, más tarde, la arquitectura codificador-decodificador. Este cambio tuvo un profundo impacto en la investigación de la PNL, incluidos el resumen de textos y la traducción automática, como lo demuestra (Sutskever et al., 2014). La capacidad de capturar el contexto semántico a través de representaciones vectoriales mejoró significativamente la calidad y profundidad del contenido generado.


• La revolución de la arquitectura Transformer: la introducción de la arquitectura Transformer por (Vaswani et al., 2017) en 2017 se considera un punto de inflexión en el avance de la PNL y la investigación de la visión por computadora y, en particular, en la investigación del modelado del lenguaje. La arquitectura transformadora representó un cambio de paradigma en la PNL al introducir un mecanismo de autoatención. Se han desarrollado varios modelos de aprendizaje profundo basados en la arquitectura transformadora como BERT (Devlin et al., 2018). Esta innovación permitió al modelo capturar dependencias de largo alcance dentro de secuencias, mejorando la coherencia y contextualidad del contenido generado. La arquitectura Transformer sentó las bases para el desarrollo posterior de LLM.


• La aparición de los LLM: en los últimos años, el campo de la IA fue testigo de la proliferación de los modelos de lenguaje grande (LLM). Estos modelos, que también se conocen con el término “modelos básicos”, se entrenan en conjuntos de datos vastos y diversos que abarcan libros, artículos de noticias, páginas web y publicaciones en redes sociales, y se ajustan con miles de millones de hiperparámetros (Bommasani et al., 2021). Esta escala de datos sin precedentes, junto con los avances en la arquitectura de modelos y las técnicas de entrenamiento, marcó un punto de inflexión significativo. Estos modelos básicos exhiben una extraordinaria adaptabilidad a una amplia gama de tareas, incluidas tareas para las que no fueron capacitados originalmente. ChatGPT es un caso ejemplar de un modelo de IA generativa en acción. Este extraordinario sistema de IA se lanzó en noviembre de 2022 y se ajustó a partir del transformador generativo preentrenado GPT-3.5, que originalmente se entrenó en un gran conjunto de datos de fuentes de texto y código (Neelakantan et al., 2022). ChatGPT aprovecha el poder del aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF), una técnica que se ha mostrado inmensamente prometedora a la hora de alinear los modelos de lenguaje grandes (LLM) con la intención humana (Christiano et al., 2017). El rendimiento sorprendentemente superior de ChatGPT subraya el potencial de un cambio de paradigma en el entrenamiento de modelos de IA generativa. Este cambio implica la adopción de técnicas de alineación de la instrucción, como el aprendizaje por refuerzo (Christiano et al., 2017), la ingeniería de indicaciones (Brown et al., 2020) y las indicaciones de cadena de pensamiento (CoT) (Wei et al., 2022), como un paso colectivo hacia la realización de la construcción de un ecosistema de servicios inteligentes basados en modelos generativos de IA.


La culminación de estos avances ha llevado a modelos de IA generativa que poseen una capacidad notable para comprender y generar contenido adecuado, realista y rico en medios (incluidos texto, imágenes, audio y video). Estas capacidades han permitido que estos modelos se utilicen y adopten ampliamente en diferentes aplicaciones, como la educación. A pesar de estos avances, han surgido preocupaciones y desafíos en el panorama de la IA generativa (Susarla et al., 2023). La facilidad con la que modelos como ChatGPT se pueden adaptar a nuevas tareas plantea dudas sobre la profundidad de su comprensión. Los expertos en equidad de la IA han advertido contra la posibilidad de que estos modelos perpetúen los sesgos sociales codificados en sus datos de entrenamiento (Glaser, 2023), etiquetándolos como "loros estocásticos" (Bender et al., 2021).


2.2. Evolución del uso de la IA generativa en la educación

El uso de la IA en la educación no es nuevo, los primeros intentos de utilizar la IA en la educación se remontan a principios de la década de 1960, cuando investigadores de la Universidad de Illinois en Urbana-Champaign desarrollaron un sistema de tutoría inteligente (ITS) llamado PLATO (Lógica Programada para Operaciones de enseñanza automática) (Bitzer et al., 1961). PLATO fue el primer sistema informático que permitió a los estudiantes con interfaces gráficas de usuario interactuar con materiales educativos desarrollados y adaptados mediante IA a sus necesidades. Otro ejemplo de los primeros intentos de utilizar la IA en la educación es el sistema "Calificador automático" que se desarrolló en la década de 1960 para calificar automáticamente las clases de programación (Hollingsworth, 1960).


La llegada de las computadoras personales ha aumentado el desarrollo de los ITS durante la década de 1970; un ejemplo de un sistema que se desarrolló en ese período es TICCIT (Televisión instructiva interactiva controlada por computadora, de tiempo compartido) (Stetten, 1971). TICCIT fue otro de los primeros ITS que se desarrolló a principios de la década de 1970 en la Universidad de Pittsburgh. TICCIT fue un intento temprano de entregar contenido multimedia individualizado en masa a los usuarios en hogares y escuelas.


Los avances en el desarrollo de los ITS en las décadas de 1960 y 1970 estuvieron respaldados por teorías y principios de aprendizaje que valoran la tutoría individualizada de los estudiantes en las aulas (ver, por ejemplo, el trabajo pionero de BF Skinner sobre el "movimiento de instrucción programada"). y el trabajo de Benjamin Bloom sobre el “aprendizaje de dominio” (Block & Burns, 1976). Los ITS desarrollados durante ese período fueron principalmente sistemas basados en reglas. Los avances en la IA y la llegada de las microcomputadoras en la década de 1970 han influido en la forma en que se entrenaron los ITS. y desarrollado (Reiser, 2001a) desde la década de 1980, el uso de la instrucción basada en computadora y la educación basada en IA en particular ha evolucionado para automatizar varias actividades de instrucción (Reiser, 2001b).


La llegada de la World Wide Web (WWW) en la década de 1990 ha supuesto un cambio importante en el medio de prestación de servicios educativos inteligentes Chen et al. (2020). Los ITS han evolucionado para ofrecer servicios de aprendizaje inteligentes, adaptables y personalizados respaldados por modelos de aprendizaje automático. A pesar de estos avances en la forma en que se desarrollaron y entregaron los ITS a los usuarios, sus capacidades se limitaron a la entrega de instrucción y aprendizaje individualizados. La evolución de la WWW hacia la llamada "Web 2.0" y las capacidades adicionales de interacción colaborativa y social han allanado el camino hacia una nueva era en el desarrollo de los ITS. Los datos recopilados a partir de la interacción de los usuarios con los servicios Web 2.0 y la capacidad de entrenar agentes de software sobre estos datos utilizando diferentes algoritmos de aprendizaje automático han llevado a que haya más avances en la aplicación de análisis de aprendizaje para adaptar y personalizar el aprendizaje (Clow, 2013). .


El siglo XXI ha sido testigo de varios avances en el uso de la IA en la educación. Estos avances estuvieron respaldados por avances en: (i) capacidades y rendimiento del hardware (Nickolls & Dally, 2010), (ii) minería de big data (Wu et al., 2013) y (iii) modelos y arquitecturas de IA (es decir, la advenimiento de modelos de aprendizaje profundo) (LeCun et al., 2015). La llegada de la arquitectura de aprendizaje profundo Transformer en 2017 (Vaswani et al., 2017) se considera un punto de inflexión en la historia del desarrollo de software inteligente en general (consulte la Sección 2.1). Muchos modelos inteligentes, como los transformadores generativos preentrenados (GPT), comenzaron a aparecer inmediatamente después (Radford et al., 2018). En noviembre de 2022, OpenAI lanzó ChatGPT, que se basa en la arquitectura GPT 3.5, y llegó a más de 100 millones de usuarios en solo unos meses. Desde entonces, y hoy en día, se desarrollan herramientas educativas generativas basadas en IA para brindar a los estudiantes instrucción personalizada, aprendizaje adaptativo y experiencias de aprendizaje atractivas (consulte la Sección 4.2).


Este documento está disponible en arxiv bajo licencia CC BY-NC-ND 4.0 DEED.