paint-brush
Субъективность и эволюция философии ИИк@antonvokrug
1,782 чтения
1,782 чтения

Субъективность и эволюция философии ИИ

к Anton Vokrug27m2023/11/21
Read on Terminal Reader

Слишком долго; Читать

В этом обзоре прослеживается история философии ИИ, противопоставляющая символический ИИ появлению коннекционистских моделей. Известный философ Хьюберт Дрейфус бросил вызов рационалистическому взгляду на символический ИИ, проложив путь коннекционистскому подходу, вдохновленному нейронными сетями. Эволюция отражает достижения в области технологий и философских взглядов, формируя наше понимание искусственного интеллекта.
featured image - Субъективность и эволюция философии ИИ
Anton Vokrug HackerNoon profile picture
0-item

Исторический обзор философии искусственного интеллекта

Многие известные люди в философии техники пытались постичь суть технологии и связать ее с обществом и человеческим опытом. В первой половине 20-го века результаты их анализа в основном показывали расхождение между технологиями и человеческой жизнью.


Технология рассматривалась как автономная сила, которая сокрушила основные части человечества. Сводя концепцию технологии к историческим и трансцендентальным предположениям, философы, казалось, абстрагировались от влияния конкретных событий.


ФИЛОСОФИЯ СУБЪЕКТИВНОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА



В восьмидесятые годы возник более эмпирический взгляд на технологию, основанный на идеях американских философов, которые включили влияние конкретных технологий в свои взгляды (Achterhuis, HJ, «Van Stoommachine tot cyborg; denken over techniek in de nieuwe weld», 1997). ) . Взаимозависимость технологий и общества является основной темой данного исследования. Этот «эмпирический поворот» позволил объяснить универсальность технологии и множество ролей, которые она может играть в обществе. Этот подход получил дальнейшее развитие среди философов техники, например, в Университете Твенте.


Искусственный интеллект как область исследований был основан в 1956 году. Он касается интеллектуального поведения вычислительных машин. Цели исследования можно разделить на четыре категории:


  • Системы, которые думают как люди.
  • Системы, которые мыслят рационально.
  • Системы, которые действуют как люди.
  • Системы, действующие рационально.


После многих лет оптимизма в отношении возможности выполнения этих задач эта область столкнулась с проблемами, связанными с представлением интеллекта, который мог бы быть полезен в приложениях. К ним относятся отсутствие базовых знаний, сложность вычислений и ограничения в структурах представления знаний (Рассел, С. и Норвиг, «Искусственный интеллект: современный подход», Питер, 2009) . Но проблемы исходили не только от дизайнерского сообщества. Философы, которых еще со времен Платона интересовали разум и рассуждение, также начали жаловаться. Используя как математические возражения (основанные на Тьюринге и Гёделе), так и более философские аргументы о природе человеческого интеллекта, они попытались показать внутренние ограничения проекта ИИ. Самым известным из них был Юбер Дрейфус.


Хьюберт Дрейфус об искусственном интеллекте

Дрейфус рассматривал цели и методы искусственного интеллекта как четкий рационалистический взгляд на интеллект. Это защищали многие философы-рационалисты на протяжении всей истории, но сам Дрейфус был скорее сторонником антирационалистической философии 20-го века, что можно увидеть в работах Хайдеггера, Мерло-Понти и Витгенштейна. Согласно Дрейфусу, наиболее фундаментальным способом познания является интуитивный, а не рациональный. Приобретая опыт в определенной области, человек привязывается к формализованным правилам лишь при первом изучении аргументации. После этого интеллект, скорее всего, будет представлен эмпирическими правилами и интуитивными решениями.


Рациональный подход ИИ можно четко проследить в основах так называемого символического ИИ. Интеллектуальные процессы рассматриваются как форма обработки информации, а представление этой информации носит символический характер. Таким образом, интеллект более или менее ограничивается манипулированием символами. Дрейфус проанализировал это как комбинацию трех фундаментальных предположений:


  • Психологическое предположение о том, что человеческий интеллект основан на правилах манипулирования символами.
  • Эпистемологическое предположение состоит в том, что все знания формализованы.
  • Онтологическое предположение состоит в том, что реальность имеет формализованную структуру.


Дрейфус не только раскритиковал эти предположения, но и определил некоторые концепции, которые, по его мнению, были важны для разведки. По мнению Дрейфуса, разум воплощается и локализуется. Воплощение сложно объяснить, так как неясно, означает ли это, что интеллект требует тела или он может развиваться только с помощью тела. Но, по крайней мере, ясно, что Дрейфус считает, что интеллект зависит от ситуации, в которой находится интеллектуальный агент, а элементы находятся в значимом отношении к своему контексту. Это предотвращает сведение реальности к формализованным сущностям. Точка зрения Дрейфуса делает невозможной работу машин, манипулирующих символами за пределами четко определенной формальной области.


Дрейфус более позитивно относится к коннекционистскому подходу к искусственному интеллекту. Этот подход предполагает, что разумное поведение возникает из смоделированных структур, напоминающих нейроны и их связи в человеческом мозге. Но он сомневается, что такая сложность человеческого мозга когда-либо возможна в таких машинах.


Таким образом, Дрейфус инициировал дискуссию о осуществимости целей ИИ. Его работы привлекли большое внимание и вызвали горячие споры. Ему даже удалось заставить некоторых исследователей изменить свою точку зрения и начать внедрять системы, которые были бы более совместимы с его видением. Дрейфус продемонстрировал предположения, сделанные символическим ИИ, и уточнил, что ни в коем случае не очевидно, что эти предположения приведут к появлению настоящих разумных машин ( Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer ) .


Однако следует сделать два замечания. Во-первых, Дрейфус основывал свою критику на строгих символических подходах к искусственному интеллекту. В последние десятилетия было предпринято несколько попыток создать более гибридные интеллектуальные системы и реализовать методы, не основанные на правилах, в символическом ИИ. Эти системы выдвигают другой взгляд на интеллект, который не может быть полностью объяснен анализом Дрейфуса. Во-вторых, критика Дрейфуса, похоже, основана на скептическом взгляде на искусственный интеллект, отчасти из-за его собственного философского прошлого, а отчасти потому, что основы были заложены в то время, когда энтузиазм был почти безграничен.


Свободная воля — странная концепция. Философия может обсуждать человеческий разум по-разному, но когда дело доходит до вопроса о том, свободны ли мы в своих решениях, дискуссия становится опасной. Мы настолько знакомы с мышлением в терминах воли, решений и действий, что по большей части отказываемся даже рассматривать возможность того, что мы не свободны в своем выборе. Но есть кое-что еще. Что, если бы я в ходе такой дискуссии сказал, что свободной воли у людей вообще не существует? Если это ложь, то я неправ, а если это правда, то все замечание теряет смысл, потому что я ничего не мог сделать, кроме как сказать это. Отрицание свободы воли представляет собой прагматическое противоречие. Нельзя отрицать свободу воли человека, не делая это отрицание бессмысленным.


Тем не менее, вопрос о свободе воли представляется актуальным, поскольку научные теории могут утверждать, что все происходящее подчиняется законам природы. Итак, нам нужно либо наделить людей особыми свойствами, либо отрицать детерминированность законов природы, если мы не хотим быть детерминированными органическими машинами. Первый вариант связан со многими философскими теориями, но более всего с теорией Декарта, который делит мир на две субстанции (дух и материю), соединяющиеся в человеке. Второй вариант открывает более целостное видение, которое использует последние достижения физики (теория относительности, квантовая механика), чтобы показать, что наша свободная воля может основываться на непредсказуемой динамике природы.


Дуалистический взгляд Декарта и других отрицает существование свободы воли для вещей, отличных от людей. Поэтому дискуссия о свободе воли и разумных машинах не особо интересна. С другой стороны, для такого обсуждения более подходит целостный взгляд, однако трудно прийти к каким-либо иным выводам, кроме физических предположений, необходимых для приписывания людям или компьютерам свойства свободы воли. Это может быть уместно в чисто философской дискуссии, но имеет мало общего с информатикой.


Существует также возможность признать, что человеческая природа по своей сути противоречива, поскольку как детерминистские взгляды, так и взгляды на свободу воли оправданы и необходимы. Этот диалектический подход позволяет нам думать о свободе воли у людей, не беспокоясь о физических предпосылках. Свободная воля становится трансцендентной предпосылкой человеческого бытия. Однако трансцендентальный взгляд на свободу воли в этом подходе не позволяет обсуждать свободу воли в конкретных артефактах, таких как интеллектуальные машины, поскольку невозможно смоделировать или спроектировать трансцендентальные предпосылки. Далее в этом разделе я преобразую сложную концепцию свободы воли в концепцию, которую можно использовать для анализа разумных машин. Эта концепция должна быть совместима с эмпирическим подходом в философии техники. Поэтому нам следует избегать разговоров о концепции свободы воли с точки зрения физических или трансцендентальных предпосылок, а скорее сосредоточиться на роли, которую эта концепция играет в обществе.


Подсказку к моему подходу в этой статье можно найти во вступительном абзаце. Моя точка зрения на дебаты о свободе воли состоит в том, что существует два фундаментально разных подхода к любым исследованиям в этой области. Первый посвящен глубоким философским вопросам природы свободы воли и способности людей избегать «требований» природы. Я назову это физическим подходом. В статье об интеллектуальных машинах это приводит к философской дискуссии, которая сосредоточена на природе людей, а не на природе компьютеров, потому что мы попадаем в положение, когда нам все равно приходится защищать свою собственную волю и говорить что-то о компьютеры, потому что мы просто хотели написать об этом статью. Другими словами, дискуссия превращается в сравнение людей и компьютеров, в котором ни люди, ни компьютеры не могут узнать себя.


Другой подход, тонко предложенный в первом абзаце этого раздела, фокусируется на невозможности отрицания нашей собственной свободной воли. Как упоминалось ранее, это отрицание не имеет смысла. Но оно не только обесценивает себя, но и разрушает основы ответственности в целом. Это означает, что мы не можем хвалить или обвинять людей за то, что они говорят или делают, поэтому нам придется пересмотреть принципы юрисдикции, работы, дружбы, любви и всего, на чем мы построили свое общество. Все эти социальные проблемы требуют выбора, и когда дело касается выбора, концепция свободы воли имеет важное значение. Суть этого в том, что свобода воли является важной презумпцией для нашего общества, независимо от того, оправдана ли она физически. Я назову это социальным подходом.


Это трудный вопрос, необходима ли презумпция свободы воли только для нашего общества или для любого человеческого общества. Я все равно рассмотрю этот вопрос, поскольку он может дать более философское обоснование важности свободы воли, чем просто указание на структуру нашего собственного общества. Кажется невозможным ответить, не пересмотрев человеческую природу и, таким образом, вновь не представив физический подход к свободе воли. Но когда мы заявляем, что взаимодействие является ядром человеческой цивилизации, потребность в концепции свободы воли возникает естественным образом. Мы не можем взаимодействовать с людьми, не предполагая, что они вольны влиять на ход взаимодействия, поскольку любое человеческое взаимодействие подразумевает, что мы заранее не знаем результата. Итак, взаимодействия характеризуются выбором и, следовательно, концепцией свободы воли. Если взаимодействие имеет основополагающее значение в любом обществе, мы также должны заявить, что свобода воли не может быть отвергнута ни в одном обществе.


Различные подходы к философии искусственного интеллекта

Символический искусственный интеллект (ИИ) — это подобласть ИИ, которая фокусируется на обработке и манипулировании символами или концепциями, а не числовыми данными. Целью символического искусственного интеллекта является создание интеллектуальных систем, которые могут рассуждать и думать как люди, представляя и манипулируя знаниями и рассуждениями на основе логических правил.


Алгоритмы символического искусственного интеллекта работают путем обработки символов, которые представляют объекты или концепции в мире и их связи. Основной подход в символическом искусственном интеллекте заключается в использовании логического программирования, где для получения выводов используются правила и аксиомы. Например, у нас есть символическая система искусственного интеллекта, предназначенная для диагностики заболеваний на основе симптомов, сообщаемых пациентом. Система имеет набор правил и аксиом, которые она использует, чтобы делать выводы о состоянии пациента.


Например, если пациент сообщает о лихорадке, система может применить следующее правило: ЕСЛИ у пациента жар И он/она кашляет И у него/нее затрудненное дыхание, ТО у пациента может быть пневмония.


Затем система проверит, есть ли у пациента также кашель и затрудненное дыхание, и если да, то сделает вывод, что у пациента может быть пневмония.


Этот подход очень легко интерпретировать, поскольку мы можем легко проследить процесс рассуждения до примененных логических правил. Это также позволяет легко изменять и обновлять правила системы по мере поступления новой информации.


Символический ИИ использует формальные языки, такие как логика, для представления знаний. Эти знания обрабатываются механизмами рассуждения, которые используют алгоритмы для манипулирования символами. Это позволяет создавать экспертные системы и системы поддержки принятия решений, которые могут делать выводы на основе заранее определенных правил и знаний.


Символический искусственный интеллект отличается от других методов искусственного интеллекта, таких как машинное и глубокое обучение, поскольку не требует больших объемов обучающих данных. Вместо этого символический ИИ основан на представлении знаний и рассуждениях, что делает его более подходящим для областей, где знания четко определены и могут быть представлены в виде логических правил.


С другой стороны, машинное обучение требует больших наборов данных для изучения закономерностей и прогнозирования. Глубокое обучение использует нейронные сети для изучения функций непосредственно из данных, что делает его подходящим для областей со сложными и неструктурированными данными.


Это зависит от предметной области и имеющихся данных, когда применять каждый метод. Символический искусственный интеллект подходит для областей с четко определенными и структурированными знаниями, а машинное и глубокое обучение — для областей с большими объемами данных и сложными закономерностями.


Коннекционистский подход к философии искусственного интеллекта основан на принципах работы нейронных сетей и их сходстве с человеческим мозгом. Этот подход предназначен для имитации поведения взаимосвязанных нейронов в биологических системах для обработки информации и обучения на данных. Вот некоторые ключевые аспекты коннекционистского подхода.


Коннекционистский подход предполагает создание искусственных нейронных сетей, состоящих из взаимосвязанных узлов, часто называемых искусственными нейронами или узлами. Эти искусственные нейроны предназначены для получения входных данных, выполнения вычислений и передачи сигналов другим нейронам в сети.


Коннекционистский подход предполагает, что искусственные нейроны в сети работают вместе для обработки информации. Каждый нейрон получает входные сигналы, выполняет на их основе вычисления и передает выходные сигналы другим нейронам. Выходная мощность сети определяется коллективной активностью ее нейронов, а информация течет по связям между ними. Важным аспектом коннекционистского подхода является способность искусственных нейронных сетей учиться на данных. В процессе обучения сеть регулирует силу связей (веса) между нейронами на основе входных данных и желаемого результата. На основе итеративного сравнения прогнозируемого результата сети с ожидаемым результатом веса обновляются, чтобы минимизировать различия и улучшить производительность сети.


Коннекционистские системы выделяют параллельную обработку, при которой в сети одновременно выполняются несколько вычислений. Это обеспечивает эффективную и надежную обработку информации. Кроме того, коннекционистские модели используют распределенное представление, а это означает, что информация кодируется в нескольких нейронах, а не локализуется в одном месте. Такое распределенное представление позволяет сети обрабатывать сложные шаблоны и суммировать их на основе ограниченных примеров.


Коннекционистский подход является основой глубокого обучения, раздела искусственного интеллекта , который фокусируется на обучении глубоких нейронных сетей с несколькими слоями. Модели глубокого обучения оказались чрезвычайно успешными в различных областях, таких как компьютерное зрение, обработка естественного языка и распознавание речи. Они продемонстрировали способность автоматически изучать иерархические представления данных, что обеспечивает повышенную производительность при выполнении сложных задач.


В целом, коннекционистский подход к философии искусственного интеллекта подчеркивает использование искусственных нейронных сетей для имитации кооперативного и параллельного характера обработки данных человеческим мозгом. Обучаясь на данных с помощью корректировок веса, коннекционистские системы доказали свою высокую эффективность в решении сложных проблем и достижении впечатляющих результатов в приложениях искусственного интеллекта.


Нейронная сеть — это вычислительная модель, вдохновленная структурой и функционированием биологических нейронных сетей, таких как человеческий мозг. Это математическая структура, состоящая из взаимосвязанных узлов (искусственных нейронов), расположенных слоями. Нейронные сети предназначены для обработки и изучения данных, что позволяет им распознавать закономерности, делать прогнозы и выполнять различные задачи.


Искусственные нейроны являются основными единицами нейронной сети. Каждый нейрон получает один или несколько входных данных, выполняет над ними вычисления и выдает выходные данные. Выходные данные обычно передаются другим нейронам сети.


Нейроны в нейронной сети связаны друг с другом посредством связей, которые представляют поток информации между ними. Каждое соединение связано с весом, который определяет силу или важность передаваемого сигнала. Весовые коэффициенты корректируются в процессе обучения для оптимизации производительности сети.


Нейронные сети обычно располагаются слоями. Входной слой получает исходные данные, а выходной слой выдает окончательный результат или прогноз, и между ними может быть один или несколько скрытых слоев. Скрытые слои позволяют сети изучать сложные представления путем преобразования и объединения входной информации.


Каждый нейрон применяет функцию активации к взвешенной сумме своих входных данных для создания выходного сигнала. Функция активации привносит в сеть нелинейность, позволяя ей моделировать сложные соединения и делать нелинейные прогнозы.


Нейронные сети обрабатывают данные по принципу прямой связи. Входные данные проходят через сеть слой за слоем, при этом вычисления выполняются на каждом нейроне. Выходные данные одного слоя служат входными данными для следующего слоя до тех пор, пока не будет получен окончательный результат.


Нейронные сети изучают данные посредством процесса, называемого обучением. Во время обучения входные данные представляются сети вместе с соответствующими желаемыми выходными данными. Сравнивая прогнозы с желаемыми результатами, веса сети корректируются с использованием таких алгоритмов, как градиентный спуск и обратное распространение ошибки. Этот итерационный процесс позволяет сети минимизировать разницу между ее прогнозами и ожидаемыми результатами.


Глубокие нейронные сети (DNN) относятся к нейронным сетям с несколькими скрытыми слоями. Глубокое обучение, которое фокусируется на обучении глубоких нейронных сетей, в последние годы привлекло значительное внимание благодаря своей способности автоматически изучать иерархические представления и извлекать сложные закономерности из данных.


Нейронные сети оказались очень успешными в различных областях, включая распознавание изображений, обработку естественного языка, синтез речи и многое другое. Они способны обрабатывать большие объёмы данных, обобщать их на примерах и выполнять сложные вычисления, что делает их мощным инструментом в области искусственного интеллекта.


Философские проблемы и дебаты в области искусственного интеллекта


«Никто не имеет ни малейшего представления о том, как что-то материальное может быть сознательным. Никто даже не знает, каково было бы иметь хоть малейшее представление о том, как что-то материальное может быть сознательным». (Джерри Фодор, Эрнест Лепор, «Холизм: Руководство для покупателя», Блэквелл, 1992) . Эти слова приписывают Джерри Фодору, и я считаю, что они объясняют все трудности, с которыми я столкнулся, пытаясь понять, как машина может быть сознательной. Однако эти слова не побуждают меня отказаться от попыток утверждать, что машина с искусственным сознанием может быть создана. На самом деле, они делают обратное; они побуждают меня думать, что если мы (материальные существа) можем быть сознательными, то сознание должно быть материальной вещью и, следовательно, теоретически оно может быть создано искусственно.


Ключевой момент в сознании заключается в том, что это не что-то одно. Это набор полиморфных понятий, все из которых перемешаны по-разному. Поэтому сложно распутать их все и попытаться объяснить каждую в отдельности. Важно помнить об этом, поскольку, хотя я изо всех сил стараюсь объяснить некоторые аспекты, их взаимосвязь затрудняет задачу. В своих выводах я пытаюсь объединить все эти концепции, чтобы обосновать возможность создания сильного искусственного сознания в виртуальной машине.


В целом искусственное сознание (далее ИК) делится на две части: слабое АС и сильное АС. Слабый АК – это «симуляция сознательного поведения». Его можно реализовать как интеллектуальную программу, моделирующую поведение сознательного существа на определенном уровне детализации без понимания механизмов, порождающих сознание. Сильный АС — это «настоящее сознательное мышление, исходящее от сложной вычислительной машины (искусственного мозга). В этом случае основное отличие от естественного аналога зависит от аппаратного обеспечения, генерирующего процесс». Однако есть некоторые ученые, такие как Крисли, которые утверждают, что существует множество промежуточных областей AC, которые он называет задержкой искусственного сознания.


Поскольку количество компьютерных инноваций с каждым годом растет в геометрической прогрессии, возможность использования мощного переменного тока становится все более актуальной. По мере того как искусственный интеллект (далее ИИ) переходит со страниц научной фантастики в область науки, к нему пристальнее присматриваются все больше учёных и философов. Многие из ведущих мировых мыслителей, в том числе Стивен Хокинг, Илон Маск и Билл Гейтс, недавно подписали открытое письмо, призывающее использовать ИИ ответственно и на благо всего человечества. Это утверждение не относится к такого рода искусственному интеллекту (чисто интеллектуальному) и не связано с так называемым «машинным вопросом», который ставит вопрос: «Как нам следует программировать ИИ?» т.е. какую этическую доктрину следует преподавать и почему?


Хотя эти темы интересны и чрезвычайно важны, здесь просто не хватает времени, чтобы дать глубокий анализ этих вопросов. Подробнее об этом см. Ника Бострома, Майлза Брандейджа и Джорджа Лазаруса, и это лишь некоторые из них.


Мы уже знаем, что машина может действовать разумно; и что она может использовать логику для решения проблем и поиска решений, потому что мы запрограммировали ее на это, но сомнения относительно способности машины к феноменальному сознанию возникли и получили широкое распространение. Мы отличаемся от машин тем, что у нас есть чувства, опыт, свободная воля, убеждения и т. д. Хотя большинство людей согласны с тем, что в нашей генетике и биологии существует определенная «программа», они уверены, что могут делать собственный выбор и что искусственная компьютерная программа не может воспроизвести их первый уникальный личный субъективный опыт.


Однако это утверждение не было бы интересным, если бы не было шансов на существование машины, способной производить мощный переменный ток. Наиболее цитируемая теория сознания, совместимая с сильным переменным током, — это функционализм. Это означает, что сознание определяется своей функцией. Теоретически он упрощен, но существуют некоторые виды функционализма. Теория известна своей связью с Аланом Тьюрингом, машинами Тьюринга и тестом Тьюринга. Потомок бихевиоризма, он (иногда) придерживается вычислительного взгляда на разум и считает, что функции являются истинными параметрами сознания. Он также в некоторой степени известен тем, что не смог объяснить феноменальное сознание, качественные состояния и квалиа. Хотя существует множество ответов на эту загадку, я сторонник онтологически консервативного элиминативистского взгляда на качественные состояния. Что делает его элиминативистским, так это то, что я утверждаю, что квалиа, как их обычно определяют, не могут существовать. Однако я отвергаю идею о том, что наше интуитивное понимание квалиа и качественных состояний неверно. Понятие квалиа просто неправильно понимается. Их можно создать искусственно. Это подтеория более широкого функционализма виртуальной машины, согласно которой сознательное существо не ограничено одним конкретным психическим состоянием одновременно, но всегда находится в нескольких состояниях одновременно. В виртуальной машине это объясняется разными системами и подсистемами.


Окончательным критерием морального агента (и основным требованием теории автономии трех условий, т.е. разумного действия) является рациональность. Этот критерий, пожалуй, наименее спорный для искусственного агента, поэтому я поставил его на последнее место. Рациональность и логика являются определяющими чертами искусственных агентов в массовой культуре. Современные компьютеры и слабые системы искусственного интеллекта известны своей логикой. Они выполняют большие вычисления и могут быстро и рационально принимать чрезвычайно сложные решения. Однако рациональность искусственных агентов не лишена противоречий. Как было замечено ранее, Сирл выражает обеспокоенность по поводу способности машины действительно думать и понимать, поскольку он утверждает, что ни один синтаксис не может сравниться с семантикой. Я уже рассмотрел китайскую комнату и свой ответ на эту проблему, но мне хотелось бы еще раз подчеркнуть полиморфную природу сознания и важность учета квалиа и феноменального сознания в теории сознания.


Следует отметить, что автономная рациональность и рациональность вообще – это не одно и то же. С точки зрения автономии, рациональность — это акт внедрения вашей воли, чтобы вы могли выйти за рамки своих «животных инстинктов» и жить своей жизнью в соответствии со своими собственными рациональными правилами. Это подразумевает размышление, прежде чем действовать. В этом отношении рациональность современных компьютеров и слабых систем искусственного интеллекта не является автономной. У них нет выбора; они просто делают то, на что запрограммированы. В некотором смысле это связано с детерминированным следованием алгоритмам, обсуждавшимся выше, поскольку оно предполагает свободный выбор. Как мы видели, виртуальные машины могут быть довольно сложными: феноменально сознательными, недетерминированными («свободными»), внутренне намеренными и чувствительными (способными испытывать убеждения, желания, боль и удовольствие). Но когда все сказано и сделано, это все равно машина. Тот, который, если бы он достиг такого уровня сложности, был бы спроектирован точно, рационально, алгоритмически и архитектурно, а «холодная рациональность» алгоритмических компьютеров в сочетании с сознанием делает его автономно рациональным. Его чувства, т.е. его эмоции, феноменальное сознание, способность испытывать боль/удовольствие и, следовательно, его убеждения и желания сделают его готовым к преодолению гедонистических чувств и принятию рациональных и автономных решений.


Искусственный интеллект (ИИ) сегодня является очень динамичной областью исследований. Он был основан в 1950-х годах и существует до сих пор. В ходе разработки ИИ различные способы исследований стимулировали конкуренцию, и продолжали появляться новые задачи и идеи. С одной стороны, существует большое сопротивление теоретическому развитию, но, с другой стороны, технологический прогресс привел к блестящим результатам, что редко встречается в истории науки.


Целью искусственного интеллекта и его технологических решений является воспроизведение человеческого интеллекта с помощью машин. В результате объекты его исследования перекрывают материальную и духовную сферы, что является достаточно сложным. Особенности интеллекта определяют извилистый характер развития ИИ, и многие проблемы, с которыми сталкивается ИИ, напрямую связаны с философией. Легко заметить, что многие эксперты в области ИИ сильно интересуются философией; Аналогичным образом, результаты исследований ИИ также привлекли большое внимание философского сообщества.


Целью когнитивных исследований, как фундаментального исследования современной науки об искусственном интеллекте, является четкое понимание структуры и процесса сознания человеческого мозга, а также предоставление логического объяснения комбинации интеллекта, эмоций и намерений человеческого сознания. , потому что эксперты по искусственному интеллекту способствуют формальному выражению этих процессов сознания. Чтобы имитировать человеческое сознание, искусственный интеллект должен сначала изучить структуру и работу сознания. Как возможно сознание? Сирл сказал: «Лучший способ объяснить, как что-то возможно, — это показать, как оно существует на самом деле». Это позволяет когнитивной науке ускорить развитие искусственного интеллекта. Важно отметить, что это самая важная причина, почему происходит когнитивный поворот. Это связано с синергетическими отношениями между философией и когнитивной психологией, когнитивной нейронаукой, наукой о мозге, искусственным интеллектом и другими дисциплинами, независимо от того, как развиваются информатика и технологии, от систем физических символов, экспертных систем, инженерии знаний до биологических компьютеров и развития квантовых компьютеров.


Оно неотделимо от познания и понимания философией всего процесса человеческого сознания и различных факторов. Независимо от того, сильная это или слабая школа искусственного интеллекта, с эпистемологической точки зрения искусственный интеллект опирается на систему физических символов для моделирования некоторых функций человеческого мышления. Однако его истинное моделирование человеческого сознания зависит не только от технологических инноваций самого робота, но и от философского понимания процесса сознания и факторов, которые на него влияют. С современной точки зрения философская проблема искусственного интеллекта заключается не в том, что составляет суть искусственного интеллекта, а, скорее, в решении некоторых более конкретных задач интеллектуального моделирования.


Что касается вопроса об интенциональности, может ли машина обладать разумом или сознанием? Если да, то может ли это намеренно причинить вред людям?


Споры о том, созданы ли компьютеры намеренно, можно резюмировать следующим образом:


  1. Что такое интенциональность? Намеренно ли робот ведет себя определенным образом в соответствии с инструкциями?


  2. Люди уже знают, что делают, прежде чем действовать. Они обладают самосознанием и знают, к чему приведут их действия. Это важная особенность человеческого сознания. Итак, как же нам понять, что робот ведет себя определенным образом согласно инструкциям?


  3. Можно ли запрограммировать интенциональность?


    Сирл считает, что «то, как мозг функционирует при создании сердца, не может быть простым способом управления компьютерной программой». Вместо этого людям следует спросить: является ли интенциональность умопостигаемым духом? Если это можно понять, почему это нельзя запрограммировать? Сирл считает, что у компьютеров есть грамматика, но нет семантики. Но на самом деле грамматика и семантика — это вопрос два в одном, и они никогда не разделяются. Если программа может объединить грамматику и семантику, нужно ли нам различать грамматику и семантику? Сирл утверждает, что даже если компьютер намеренно копирует, копия не является оригиналом. Фактически, когда у нас есть четкое понимание человеческого познания и его связи с человеческим поведением, мы сможем программировать связь между нашими психическими процессами и поведением человеческого мозга и вводить информацию о всех известных нам людях. Это информация, благодаря которой компьютер «знает все». Однако можем ли мы в то время быть такими, как сказал Сирл? Искусственный интеллект — это не интеллект? Неужели у искусственного интеллекта нет интенциональности и мыслительных процессов, потому что ему не хватает человеческих белков и нервных клеток? Является ли намеренное копирование «намеренным»? Является ли копирование понимания настоящим «пониманием»? Является ли дублирование идей «мышлением»? Является ли дублирование мышления «мышлением»? Наш ответ: основа другая, но функция та же. Опираясь на разные основы для формирования одной и той же функции, искусственный интеллект — это всего лишь особый способ реализации нашего человеческого интеллекта. Сирл использует преднамеренность, чтобы отрицать глубину искусственного интеллекта. Хотя существует определенная основа того, что искусственный интеллект может имитировать человеческие мысли, даже если люди думают, что искусственный интеллект и человеческий интеллект существенно отличаются, тогда мы почувствуем, что эта разница больше не актуальна. Точка зрения Сирла может лишь снова пронзить человеческое сердце!



Что касается вопроса интеллекта, могут ли машины решать проблемы, используя интеллект, так же, как это делают люди? Или есть предел, до которого машина может иметь интеллект для решения любой сложной проблемы?


По словам Поланьи, люди могут неосознанно использовать так называемые скрытые способности: «Люди знают больше, чем могут выразить». Это предполагает езду на велосипеде и разминку, а также более высокий уровень практических навыков. К сожалению, если мы не понимаем правила, мы не сможем научить правилам компьютер. Это парадокс Поланьи. Чтобы решить эту проблему, ученые-компьютерщики не пытались изменить человеческий интеллект, а разработали новый способ мышления для искусственного интеллекта – мышление посредством данных.


Рич Каруана, старший научный сотрудник Microsoft Research, сказал: «Вы можете подумать, что принцип искусственного интеллекта заключается в том, что мы сначала понимаем людей, а затем таким же образом создаем искусственный интеллект, но это не так». Возьмем, к примеру, самолеты. Они были построены задолго до того, как появилось понимание того, как летают птицы. Принципы аэродинамики были другими, но сегодня наши самолеты летают выше и быстрее, чем любое животное".


Сегодня люди обычно думают, что умные компьютеры займут нашу работу. Прежде чем вы закончите завтрак, он уже выполнит вашу недельную рабочую нагрузку, и им не придется делать перерыв, пить кофе, уходить на пенсию или даже спать. Но правда в том, что, хотя многие задачи будут автоматизированы в будущем, по крайней мере, в краткосрочной перспективе, этот новый тип интеллектуальных машин, скорее всего, будет работать и с нами.


Проблема с искусственным интеллектом — это современная версия парадокса Поланьи. Мы не до конца понимаем механизм обучения человеческого мозга, поэтому позволяем искусственному интеллекту думать как статистика. Ирония в том, что в настоящее время мы очень мало знаем о том, как думает искусственный интеллект, поэтому у нас есть две неизвестные системы. Это часто называют «проблемой черного ящика»: вы знаете входные и выходные данные, но понятия не имеете, как ящик перед вами пришел к такому выводу. Каруана сказал: «Сейчас у нас есть два разных типа интеллекта, но мы не можем полностью понять оба».


У искусственной нейронной сети нет языковых возможностей, поэтому она не может объяснить, что и почему она делает, и ей не хватает здравого смысла, как и любому искусственному интеллекту. Люди все больше обеспокоены тем, что некоторые операции ИИ иногда могут скрывать сознательные предубеждения, такие как сексизм или расовая дискриминация. Например, недавно появилось программное обеспечение, которое используется для оценки вероятности повторного совершения преступлений преступниками. Чернокожим людям приходится вдвойне тяжелее. Если данные, которые они получают, безупречны, их решение, скорее всего, будет правильным, но чаще всего оно подвержено человеческой предвзятости.


Что касается вопроса этики, могут ли машины быть опасны для человека? Как ученые могут убедиться, что машины ведут себя этично и не представляют угрозы для человека?


Среди ученых ведется много споров о том, могут ли машины испытывать такие эмоции, как любовь или ненависть. Они также считают, что у людей нет причин ожидать, что ИИ будет сознательно стремиться к добру и злу. Рассматривая вопрос о том, как искусственный интеллект становится риском, эксперты полагают, что существует два наиболее вероятных сценария:


  • ИИ предназначен для выполнения разрушительных задач: автономное оружие — это системы искусственного интеллекта, предназначенные для убийства. Если это оружие попадет в руки злодеев, оно может легко причинить большой ущерб. Кроме того, гонка вооружений ИИ может непреднамеренно спровоцировать войну ИИ, что приведет к большому количеству жертв. Чтобы избежать вмешательства со стороны сил противника, «закрытые» программы вооружений будут чрезвычайно сложными, и поэтому люди также могут потерять контроль в таких ситуациях. Хотя этот риск также существует в специальном искусственном интеллекте (узком ИИ), он будет возрастать с развитием интеллектуального ИИ и более высокого уровня самоуправления.


  • ИИ был разработан для выполнения полезных задач, но процесс, который он выполняет, может быть разрушительным: это может произойти, когда цели человека и искусственного интеллекта еще не полностью согласованы, в то время как согласование целей человеческого и искусственного интеллекта является непростой задачей. Только представьте, если вы вызовете умную машину, которая отвезет вас в аэропорт на максимально возможной скорости, она может отчаянно следовать вашим инструкциям, даже так, как вам не хочется: вас может преследовать вертолет или вас стошнит из-за превышения скорости. Если целью сверхумной системы является амбициозный геоинженерный проект, побочным эффектом может стать разрушение экосистемы, а попытки человека остановить это будут рассматриваться как угроза, которую необходимо устранить.


Что касается вопроса концептуальности, то есть проблемы с концептуальной основой искусственного интеллекта.


Любая наука основана на том, что она знает, и даже способность научного наблюдения связана с общеизвестными вещами. Чтобы понять неизвестное, мы можем полагаться только на то, что знаем. Известное и неизвестное всегда представляют собой пару противоречий, всегда сосуществуют и зависят друг от друга. Без известного мы не можем изучить неизвестное; без неизведанного мы не сможем обеспечить развитие и эволюцию научного знания. Существует множество свидетельств того, что когда люди наблюдают за объектами, впечатления, которые получает наблюдатель, не определяются светом, попадающим в их глазные яблоки. Сигнал определяется не только изображением на сетчатке наблюдателя. Даже два человека, смотрящие на один и тот же объект, получат разные визуальные впечатления. Как сказал Хансен, когда наблюдатель смотрит на объект, он видит гораздо больше, чем осязает глазное яблоко. Наблюдения очень важны для науки, но «высказывания о наблюдениях должны делаться на языке конкретной теории». «Заявления о наблюдениях являются публичной темой и делаются на публичном языке. Они содержат теории разной степени универсальности и сложности». Это показывает, что наблюдение требует теории. Науке нужна теория как предшественник, а научное понимание не основано на неизвестном. Предприятиям часто не хватает понимания лучших вариантов для своего бизнеса, и консалтинговые службы по искусственному интеллекту пытаются управлять бизнесом с помощью ИИ.


Влияние философии на развитие и применение искусственного интеллекта


Несмотря на явные различия в подходах, технология (в целом) и философия имеют один и тот же объект интереса: люди.


Целью развития технологий является решение конкретной практической задачи в повседневной жизни и тем самым повышение ее полезности для человечества в ближайшем будущем. Но в большинстве случаев масштабы технологического развития не выходят за рамки практических и текущих задач, которые оно решает. В этом просто нет необходимости, если проблему можно решить технически. Технологии всегда преследуют одну цель: быть полезными. Похоже, что это чисто инструментальный подход (М. Таддео и Л. Флориди, «Как ИИ может быть силой добра», Science, август 2018 г.), который редко заботится о побочных эффектах своих продуктов.


Напротив, философия занимается не только текущими проблемами и практическими аспектами человеческого существования. Чтобы сформировать максимально широкий взгляд на конкретную тему, философский анализ исследует не только сам объект исследования, но также его этические последствия и другие возможные влияния на человеческие дела. Частью этого является изучение возникновения, развития и природы ценностей. Поэтому тщательный анализ и критика общих положений и текущих событий для поиска изменений в той или иной системе ценностей является основной задачей в области философии.


Философия и технология: противоречие или симбиоз?

Короче говоря, философия обычно поднимает новые вопросы и проблемы, в то время как целью технологий, особенно ИИ, естественно, является решение конкретных и существующих проблем. Учитывая это, симбиоз этих двух областей на первый взгляд кажется парадоксальным.


Однако, задавая все больше и больше новых вопросов и критикуя предлагаемые технологические решения, особенно путем точного философского изучения основной проблемы, технология может предложить долгосрочные и более подробные решения. Философия предоставляет инструменты для этого упреждающего процесса, такие как логический анализ, этическое и моральное исследование, а также глубокую методологию постановки правильных вопросов. Если представить это в перспективе: как ИИ повлияет на будущее сферы труда?


Это определенно дополняет перспективное развитие новых технологий. Когда процесс разработки учитывает как можно больше возможных результатов как проблемы, так и предлагаемого технического решения, будущие проблемы могут быть решены устойчивым образом. Все это относится к искусственному интеллекту как подвиду технологии, которую теперь следует определить как «науку и технологию создания интеллектуальных машин, особенно интеллектуального программного обеспечения» («Ближе к машине: технические, социальные и юридические аспекты искусственного интеллекта»). , Управление комиссара по информации штата Виктория, Тоби Уолш, Кейт Миллер, Джейк Голденфейн, Фан Чен, Цзяньлун Чжоу, Ричард Нок, Бенджамин Рубинштейн, Маргарет Джексон, 2019).


Но связь между искусственным интеллектом и философией гораздо более обширна.


Искусственный интеллект и философия: особая связь

Уникальную связь между искусственным интеллектом и философией уже подчеркивал учёный-компьютерщик Джон Маккарти. Хотя философия дополняет всю техническую науку в целом, она даже имеет решающее значение для искусственного интеллекта как специальной дисциплины и обеспечивает фундаментальную методологию в этой области.


Философы разработали некоторые базовые концепции искусственного интеллекта. Примеры включают «...изучение свойств, которыми должен обладать артефакт, чтобы считаться разумным» («Промышленные революции: 4 основные революции в индустриальном мире», Sentryo, 23 февраля 2017 г.) или элементарное концепция рациональности, которая также возникла из философского дискурса.


Что более интересно в этом контексте, так это то, что философия призвана направлять эволюцию искусственного интеллекта и организовывать его интеграцию в нашу жизнь, поскольку она касается не только тривиальных технологий, но и совершенно новых и неисследованных этических и социальных проблем.