paint-brush
Geschichte des Einsatzes von KI in der Bildungvon@escholar
1,780 Lesungen
1,780 Lesungen

Geschichte des Einsatzes von KI in der Bildung

Zu lang; Lesen

Dieser Artikel zeichnet die Geschichte der KI im Bildungswesen nach und beschreibt detailliert die Entwicklung generativer KI-Modelle von den 1960er Jahren bis heute, einschließlich ihrer Anwendungen und Auswirkungen auf personalisiertes Lernen und Bildungstechnologie.
featured image - Geschichte des Einsatzes von KI in der Bildung
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture
0-item

Autor:

(1) Mohammad AL-Smad, Qatar University, Katar und (E-Mail: [email protected]).

Linktabelle

Zusammenfassung und Einleitung

Geschichte des Einsatzes von KI in der Bildung

Forschungsmethodik

Literaturische Rezension

Zusammenfassung

Schlussfolgerung und Referenzen

2. Geschichte des Einsatzes von KI in der Bildung

Die Geschichte des Einsatzes von KI in der Bildung reicht bis in die 1960er Jahre zurück, als die ersten intelligenten Nachhilfesysteme entwickelt wurden. Diese Systeme wurden entwickelt, um Schülern personalisierten Unterricht zu bieten, der auf ihre individuellen Bedürfnisse und Lernstile zugeschnitten ist. Bevor wir uns jedoch mit der Entwicklung des Einsatzes generativer KI in der Bildung befassen, müssen wir die Geschichte und Entwicklung generativer KI-Modelle verstehen.


2.1. Die Geschichte und Entwicklung generativer KI-Modelle

Modelle der generativen künstlichen Intelligenz (KI), insbesondere Sprachmodelle (LLMs), haben im Laufe der Jahre bemerkenswerte Fortschritte gemacht und die Landschaft der natürlichen Sprachverarbeitung und einer breiten Palette anderer kreativer Aufgaben verändert (Susarla et al., 2023). In diesem Abschnitt gehen wir auf die historischen Wurzeln und die Entwicklungsentwicklung dieser Modelle ein und heben wichtige Meilensteine hervor, die ihre Entwicklung geprägt haben.


• Die Anfänge der Sprachmodellierung: Die Entwicklungsgeschichte der LLMs begann in den 1950er und 1960er Jahren mit dem Aufkommen der statistischen Verarbeitung natürlicher Sprache (NLP). In ihren Anfängen verwendeten Sprachmodelle hauptsächlich statistische Methoden, um die Wahrscheinlichkeit eines bestimmten Wortes oder einer bestimmten Wortfolge in einem sprachlichen Kontext abzuschätzen. N-Gramme und Folgen von n Wörtern waren in dieser Zeit grundlegende Techniken (Russell & Norvig, 2010).


• Von N-Grammen zu Word Embeddings: Ein entscheidender Wechsel von N-Gramm-basierten Modellen zur Verwendung von Word Embeddings begann Mitte der 2000er Jahre mit der Einführung des „Word2Vec“-Algorithmus durch (Mikolov et al., 2013) im Jahr 2013. Dieser innovative Ansatz beruhte auf der Verwendung von Vektordarstellungen, um die semantische Bedeutung von Wörtern zu erfassen. Dieser Durchbruch legte den Grundstein für nachfolgende Entwicklungen in der Sprachmodellierung.


• Fortschritte bei textbasierten Deep-Learning-Modellen (z. B. Sequence-to-Sequence NLP): Die Integration von Wort-Embeddings in die Sprachmodellierung läutete eine neue Ära ein. Diese Vektordarstellungen dienten als Input für Deep-Learning-Modelle wie rekurrierende neuronale Netzwerke (RNNs) und später die Encoder-Decoder-Architektur. Dieser Wandel hatte tiefgreifende Auswirkungen auf die NLP-Forschung, einschließlich Textzusammenfassung und maschinelle Übersetzung, wie (Sutskever et al., 2014) zeigten. Die Fähigkeit, semantischen Kontext durch Vektordarstellungen zu erfassen, verbesserte die Qualität und Tiefe des generierten Inhalts erheblich.


• Die Revolution der Transformer-Architektur: Die Einführung der Transformer-Architektur durch (Vaswani et al., 2017) im Jahr 2017 gilt als Wendepunkt in der Weiterentwicklung der NLP- und Computer-Vision-Forschung und insbesondere in der Sprachmodellierungsforschung. Die Transformer-Architektur stellte einen Paradigmenwechsel in der NLP dar, indem sie einen Selbstaufmerksamkeitsmechanismus einführte. Basierend auf der Transformer-Architektur wurden mehrere Deep-Learning-Modelle entwickelt, wie z. B. BERT (Devlin et al., 2018). Diese Innovation ermöglichte es dem Modell, weitreichende Abhängigkeiten innerhalb von Sequenzen zu erfassen und so die Kohärenz und Kontextualität des generierten Inhalts zu verbessern. Die Transformer-Architektur legte den Grundstein für die nachfolgende Entwicklung von LLMs.


• Die Entstehung von LLMs: In den letzten Jahren hat der Bereich der KI die Verbreitung von Large Language Models (LLMs) erlebt. Diese Modelle, die auch unter dem Begriff „Grundlagenmodelle“ bekannt sind, werden anhand riesiger und vielfältiger Datensätze trainiert, die Bücher, Nachrichtenartikel, Webseiten und Social-Media-Beiträge umfassen, und mit Milliarden von Hyperparametern abgestimmt (Bommasani et al., 2021). Diese beispiellose Datenmenge, gepaart mit Fortschritten in der Modellarchitektur und den Trainingstechniken, markierte einen bedeutenden Wendepunkt. Diese Grundmodelle weisen eine außergewöhnliche Anpassungsfähigkeit an eine breite Palette von Aufgaben auf, darunter auch Aufgaben, für die sie ursprünglich nicht trainiert wurden. ChatGPT ist ein exemplarisches Beispiel für ein generatives KI-Modell in Aktion. Dieses bemerkenswerte KI-System wurde im November 2022 eingeführt und basiert auf dem generativen, vortrainierten Transformer GPT-3.5, der ursprünglich anhand eines großen Datensatzes von Text- und Codequellen trainiert wurde (Neelakantan et al., 2022). ChatGPT nutzt die Leistungsfähigkeit des Reinforcement Learning from Human Feedback (RLHF), einer Technik, die sich als äußerst vielversprechend erwiesen hat, wenn es darum geht, Large Language Models (LLMs) an menschliche Absichten anzupassen (Christiano et al., 2017). Die erstaunlich überlegene Leistung von ChatGPT unterstreicht das Potenzial für einen Paradigmenwechsel beim Training generativer KI-Modelle. Dieser Wechsel beinhaltet die Einführung von Techniken zur Anweisungsausrichtung wie Reinforcement Learning (Christiano et al., 2017), Prompt Engineering (Brown et al., 2020) und Chain-of-Thought (CoT)-Prompts (Wei et al., 2022) als gemeinsamen Schritt zur Realisierung des Aufbaus eines Ökosystems intelligenter Dienste auf der Grundlage generativer KI-Modelle.


Die Kulmination dieser Fortschritte hat zu generativen KI-Modellen geführt, die eine bemerkenswerte Fähigkeit besitzen, medienreiche, realistische und angemessene Inhalte (einschließlich Text, Bilder, Audio und Video) zu verstehen und zu generieren. Dank dieser Fähigkeiten konnten diese Modelle in verschiedenen Anwendungen wie der Bildung eingesetzt und weithin übernommen werden. Trotz dieser Fortschritte sind in der Landschaft der generativen KI Bedenken und Herausforderungen aufgetreten (Susarla et al., 2023). Die Leichtigkeit, mit der Modelle wie ChatGPT an neue Aufgaben angepasst werden können, wirft Fragen über die Tiefe ihres Verständnisses auf. Experten für KI-Fairness haben davor gewarnt, dass diese Modelle gesellschaftliche Vorurteile, die in ihren Trainingsdaten kodiert sind, aufrechterhalten könnten (Glaser, 2023), und sie als „stochastische Papageien“ bezeichnet (Bender et al., 2021).


2.2. Entwicklung des Einsatzes generativer KI im Bildungsbereich

Der Einsatz von KI in der Bildung ist nichts Neues. Die ersten Versuche, KI in der Bildung einzusetzen, gehen auf die frühen 1960er Jahre zurück, als Forscher an der University of Illinois in Urbana-Champaign ein intelligentes Nachhilfesystem (ITS) namens PLATO (Programmed Logic for Automatic Teaching Operations) entwickelten (Bitzer et al., 1961). PLATO war das erste Computersystem, das es Schülern mit grafischen Benutzeroberflächen ermöglichte, mit Unterrichtsmaterialien zu interagieren, die mithilfe von KI entwickelt und an ihre Bedürfnisse angepasst wurden. Ein weiteres Beispiel für frühe Versuche, KI in der Bildung einzusetzen, ist das „Automatic Grader“-System, das in den 1960er Jahren entwickelt wurde, um Programmierkurse automatisch zu benoten (Hollingsworth, 1960).


Das Aufkommen von Personalcomputern hat die Entwicklung von ITS in den 1970er Jahren vorangetrieben. Ein Beispiel für ein System, das in dieser Zeit entwickelt wurde, ist TICCIT (Time-shared, Interactive Computer-Controlled Instructional Television) (Stetten, 1971). TICCIT war ein weiteres frühes ITS, das in den frühen 1970er Jahren an der Universität von Pittsburgh entwickelt wurde. TICCIT war ein früher Versuch, individualisierte, multimediabasierte Inhalte in großen Mengen an Benutzer zu Hause und in der Schule zu liefern.


Die Fortschritte bei der Entwicklung von ITS in den 1960er und 1970er Jahren wurden durch Lerntheorien und -prinzipien unterstützt, die die individuelle Eins-zu-eins-Betreuung von Schülern im Klassenzimmer wertschätzen (siehe beispielsweise die Pionierarbeit von BF Skinner zur „Programmed Instruction Movement“ und Benjamin Blooms Arbeit zum „Mastery Learning“ (Block & Burns, 1976). Die in diesem Zeitraum entwickelten ITS waren hauptsächlich regelbasierte Systeme. Fortschritte in der KI und das Aufkommen von Mikrocomputern in den 1970er Jahren haben die Art und Weise beeinflusst, wie ITS trainiert und entwickelt wurden (Reiser, 2001a). Seit den 1980er Jahren hat sich die Verwendung von computergestütztem Unterricht und insbesondere KI-basierter Bildung dahingehend weiterentwickelt, dass mehrere Unterrichtsaktivitäten automatisiert werden (Reiser, 2001b).


Die Einführung des World Wide Web (WWW) in den 1990er Jahren hat zu einem großen Wandel in der Bereitstellung intelligenter Bildungsdienste geführt Chen et al. (2020). ITS haben sich weiterentwickelt und bieten intelligente, adaptive und personalisierte Lerndienste auf der Grundlage von Modellen des maschinellen Lernens. Trotz dieser Fortschritte bei der Entwicklung und Bereitstellung von ITS für die Benutzer waren ihre Fähigkeiten auf die Bereitstellung von individuellem Unterricht und Lernen beschränkt. Die Entwicklung des WWW zum sogenannten „Web 2.0“ und die zusätzlichen Fähigkeiten der kollaborativen und sozialen Interaktion haben den Weg in eine neue Ära der Entwicklung von ITS geebnet. Das Sammeln von Daten auf der Grundlage der Interaktion der Benutzer mit den Web 2.0-Diensten und die Möglichkeit, Software-Agenten anhand dieser Daten mithilfe verschiedener Algorithmen des maschinellen Lernens zu trainieren, haben zu weiteren Fortschritten bei der Anwendung von Lernanalysen zum Anpassen und personalisierten Lernen geführt (Clow, 2013).


Im 21. Jahrhundert gab es mehrere Durchbrüche bei der Nutzung von KI in der Bildung. Diese Durchbrüche wurden durch Fortschritte in folgenden Bereichen unterstützt: (i) Hardwarefunktionen und -leistung (Nickolls & Dally, 2010), (ii) Big Data Mining (Wu et al., 2013) und (iii) KI-Modellen und -Architekturen (d. h. dem Aufkommen von Deep-Learning-Modellen) (LeCun et al., 2015). Das Aufkommen der Transformer-Deep-Learning-Architektur im Jahr 2017 (Vaswani et al., 2017) gilt als Wendepunkt in der Geschichte der Entwicklung intelligenter Software im Allgemeinen (siehe Abschnitt 2.1). Viele intelligente Modelle wie generative vortrainierte Transformatoren (GPT) tauchten unmittelbar danach auf (Radford et al., 2018). Im November 2022 hat OpenAI ChatGPT veröffentlicht – das auf der GPT 3.5-Architektur basiert – und in nur wenigen Monaten über 100 Millionen Benutzer erreicht. Seitdem und auch heute werden generative, KI-basierte Bildungsinstrumente entwickelt, um Schülern personalisierten Unterricht, adaptives Lernen und spannende Lernerfahrungen zu bieten (siehe Abschnitt 4.2).