paint-brush
История использования ИИ в образованиик@escholar
Новая история

История использования ИИ в образовании

Слишком долго; Читать

В этой статье прослеживается история применения ИИ в образовании, подробно описывая развитие генеративных моделей ИИ с 1960-х годов по настоящее время, включая их применение и влияние на персонализированное обучение и образовательные технологии.
featured image - История использования ИИ в образовании
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture
0-item

Автор:

(1) Мохаммад Аль-Смад, Катарский университет, Катар и (электронная почта: [email protected]).

Таблица ссылок

Аннотация и введение

История использования ИИ в образовании

Методология исследования

Литературный обзор

Краткое содержание

Заключение и ссылки

2. История использования ИИ в образовании

История использования ИИ в образовании берет свое начало в 1960-х годах, когда были разработаны первые интеллектуальные системы обучения. Эти системы были разработаны для предоставления учащимся индивидуального обучения с учетом их индивидуальных потребностей и стилей обучения. Однако, прежде чем мы углубимся в эволюцию использования генеративного ИИ в образовании, нам необходимо понять историю и эволюцию моделей генеративного ИИ.


2.1. История и эволюция генеративных моделей искусственного интеллекта

Модели генеративного искусственного интеллекта (ИИ), в частности языковые модели (LLM), за последние годы продемонстрировали значительный прогресс, изменив ландшафт обработки естественного языка и широкий спектр других творческих задач (Susarla et al., 2023). В этом разделе мы углубляемся в исторические корни и траекторию эволюции этих моделей, выделяя ключевые вехи, которые определили их развитие.


• Первые дни языкового моделирования: история развития LLM началась в 1950-х и 1960-х годах с появлением статистической обработки естественного языка (НЛП). На заре своего развития языковые модели в основном использовали статистические методологии для оценки вероятности появления данного слова или последовательности слов в лингвистическом контексте. N-граммы и последовательности n слов были фундаментальными методами в тот период (Russell & Norvig, 2010).


• От N-грамм к векторным представлениям слов. Решающий переход от моделей на основе n-грамм к использованию векторных изображений слов начал проявляться в середине 2000-х годов с введением алгоритма «Word2Vec» (Миколов и др., 2013). ) в 2013 году. Этот инновационный подход основан на использовании векторных представлений для передачи семантического значения слов. Этот прорыв заложил основу для последующих разработок в области языкового моделирования.


• Достижения в моделях глубокого обучения на основе текста (например, НЛП «последовательность-последовательность»): интеграция встраивания слов в языковое моделирование открыла новую эру. Эти векторные представления послужили входными данными для моделей глубокого обучения, таких как рекуррентные нейронные сети (RNN), а позже и архитектура кодера-декодера. Этот сдвиг оказал глубокое влияние на исследования НЛП, включая обобщение текста и машинный перевод, как продемонстрировали (Суцкевер и др., 2014). Возможность захвата семантического контекста с помощью векторных представлений значительно повысила качество и глубину создаваемого контента.


• Революция в архитектуре трансформаторов. Внедрение архитектуры трансформаторов (Васвани и др., 2017) в 2017 году считается поворотным моментом в развитии исследований НЛП и компьютерного зрения, в частности в исследованиях языкового моделирования. Архитектура-трансформер представляет собой сдвиг парадигмы в НЛП, вводя механизм самообслуживания. Несколько моделей глубокого обучения были разработаны на основе архитектуры преобразователя, такой как BERT (Девлин и др., 2018). Это нововведение позволило модели фиксировать долгосрочные зависимости внутри последовательностей, улучшая согласованность и контекстуальность генерируемого контента. Архитектура Transformer заложила основу для последующего развития LLM.


• Появление LLM. В последние годы в области искусственного интеллекта наблюдается распространение моделей большого языка (LLM). Эти модели, также известные под термином «основные модели», обучаются на обширных и разнообразных наборах данных, включая книги, новостные статьи, веб-страницы и сообщения в социальных сетях, и настраиваются с использованием миллиардов гиперпараметров (Боммасани и др., 2021). Этот беспрецедентный масштаб данных в сочетании с достижениями в архитектуре моделей и методах обучения стал важным поворотным моментом. Эти модели фундамента демонстрируют исключительную адаптируемость к широкому кругу задач, включая задачи, для выполнения которых они изначально не были обучены. ChatGPT представляет собой образцовый пример генеративной модели ИИ в действии. Эта замечательная система искусственного интеллекта была запущена в ноябре 2022 года и доработана на основе генеративного предварительно обученного преобразователя GPT-3.5, который изначально обучался на большом наборе данных источников текста и кода (Neelakantan et al., 2022). ChatGPT использует возможности обучения с подкреплением на основе обратной связи с человеком (RLHF), метода, который показал огромные перспективы в согласовании моделей большого языка (LLM) с человеческими намерениями (Christiano et al., 2017). Удивительно высокая производительность ChatGPT подчеркивает потенциал смены парадигмы в обучении генеративных моделей ИИ. Этот сдвиг предполагает внедрение методов согласования инструкций, таких как обучение с подкреплением (Christiano et al., 2017), подсказки (Brown et al., 2020) и подсказки цепочки мыслей (CoT) (Wei et al., 2022), как коллективный шаг к реализации построения экосистемы интеллектуальных услуг на основе генеративных моделей ИИ.


Кульминация этих достижений привела к созданию генеративных моделей искусственного интеллекта, которые обладают замечательной способностью понимать и генерировать реалистичный и правильный контент (включая текст, изображения, аудио и видео). Такие возможности позволили использовать и широко применять эти модели в различных приложениях, таких как образование. Несмотря на эти достижения, в сфере генеративного ИИ возникли проблемы и проблемы (Susarla et al., 2023). Легкость, с которой такие модели, как ChatGPT, можно адаптировать к новым задачам, вызывает вопросы о глубине их понимания. Эксперты по вопросам справедливости ИИ предостерегают от возможности сохранения этими моделями социальных предубеждений, закодированных в их обучающих данных (Глейзер, 2023), называя их «стохастическими попугаями» (Бендер и др., 2021).


2.2. Эволюция использования генеративного ИИ в образовании

Использование ИИ в образовании не новость. Первые попытки использования ИИ в образовании можно отнести к началу 1960-х годов, когда исследователи из Университета Иллинойса в Урбана-Шампейн разработали интеллектуальную систему обучения (ИТС) под названием PLATO (программируемая логика для обучения). Автоматические операции обучения) (Битцер и др., 1961). PLATO была первой компьютерной системой, которая позволяла учащимся с помощью графических пользовательских интерфейсов взаимодействовать с учебными материалами, разработанными и адаптированными с использованием ИИ к их потребностям. Еще одним примером ранних попыток использования ИИ в образовании является система «Автоматическая оценка», которая была разработана в 1960-х годах для автоматической оценки классов программирования (Hollingsworth, 1960).


Появление персональных компьютеров способствовало развитию ИТС в 1970-х годах. Примером системы, разработанной в тот период, является TICCIT (Интерактивное обучающее телевидение с разделением времени и компьютерным управлением) (Stteten, 1971). TICCIT была еще одной ранней ITS, разработанной в начале 1970-х годов в Питтсбургском университете. TICCIT был первой попыткой массового предоставления индивидуального мультимедийного контента пользователям дома и в школах.


Достижения в разработке ИТС в 1960-х и 1970-х годах были подкреплены теориями и принципами обучения, которые ценят индивидуальное индивидуальное обучение учащихся в классах (см., например, новаторскую работу Б.Ф. Скиннера о «движении программируемого обучения»). и работа Бенджамина Блума по «мастерскому обучению» (Block & Burns, 1976). Разработанные в тот период ИТС представляли собой главным образом системы, основанные на правилах. Достижения в области искусственного интеллекта и появление микрокомпьютеров в 1970-х годах повлияли на способы обучения ИТС. и развивались (Reiser, 2001a). С 1980-х годов использование компьютерного обучения и обучения на основе искусственного интеллекта, в частности, превратилось в автоматизацию некоторых видов учебной деятельности (Reiser, 2001b).


Появление Всемирной паутины (WWW) в 1990-х годах привело к серьезным изменениям в среде предоставления интеллектуальных образовательных услуг. Chen et al. (2020). ИТС эволюционировали, чтобы предоставлять интеллектуальные, адаптивные и персонализированные услуги обучения, основанные на моделях машинного обучения. Несмотря на эти достижения в способах разработки и предоставления пользователям ИТС, их возможности ограничивались предоставлением индивидуального обучения и обучения. Эволюция WWW до так называемой «Веб 2.0» и дополнительные возможности совместного и социального взаимодействия проложили путь к новой эре в развитии ИТС. Собранные данные, основанные на взаимодействии пользователей со службами Web 2.0, а также возможность обучения программных агентов на этих данных с использованием различных алгоритмов машинного обучения привели к большему прогрессу в применении аналитики обучения для адаптации и персонализированного обучения (Clow, 2013). .


XXI век стал свидетелем нескольких прорывов в использовании ИИ в образовании. Эти прорывы были подкреплены достижениями в: (i) аппаратных возможностях и производительности (Nickolls & Dally, 2010), (ii) интеллектуальном анализе больших данных (Wu et al., 2013) и (iii) моделях и архитектурах искусственного интеллекта (т.е. появление моделей глубокого обучения) (LeCun et al., 2015). Появление архитектуры глубокого обучения Transformer в 2017 году (Васвани и др., 2017) считается поворотным моментом в истории разработки интеллектуального программного обеспечения в целом (см. раздел 2.1). Сразу после этого начали появляться многие интеллектуальные модели, такие как генеративные предварительно обученные трансформаторы (GPT) (Radford et al., 2018). В ноябре 2022 года OpenAI выпустила ChatGPT, основанный на архитектуре GPT 3.5, и всего за несколько месяцев охватила более 100 миллионов пользователей. С тех пор и сегодня разрабатываются образовательные инструменты на основе генеративного искусственного интеллекта, обеспечивающие учащимся персонализированное обучение, адаптивное обучение и увлекательный учебный опыт (см. Раздел 4.2).


Этот документ доступен на arxiv под лицензией CC BY-NC-ND 4.0 DEED.


L O A D I N G
. . . comments & more!

About Author

EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture
EScholar: Electronic Academic Papers for Scholars@escholar
We publish the best academic work (that's too often lost to peer reviews & the TA's desk) to the global tech community

БИРКИ

Languages

ЭТА СТАТЬЯ БЫЛА ПРЕДСТАВЛЕНА В...