paint-brush
主観性と AI 哲学の進化@antonvoichenkovokrug
1,809 測定値
1,809 測定値

主観性と AI 哲学の進化

長すぎる; 読むには

この概要では、AI 哲学の歴史をたどり、記号 AI とコネクショニスト モデルの出現を対比させます。著名な哲学者ヒューバート・ドレフュスは、シンボリック AI の合理主義的見解に異議を唱え、ニューラル ネットワークに触発されたコネクショニスト アプローチへの道を切り開きました。この進化はテクノロジーと哲学的観点の進歩を反映しており、人工知能に対する私たちの理解を形作ります。
featured image - 主観性と AI 哲学の進化
Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture
0-item

人工知能の哲学の歴史的概要

テクノロジー哲学の著名な人々の多くは、テクノロジーの本質を理解し、それを社会や人間の経験と結び付けようと努めてきました。 20 世紀前半、彼らの分析結果は主にテクノロジーと人間の生活との乖離を示しました。


テクノロジーは、人間の基本的な部分を打ち砕く自律的な力であると見なされていました。哲学者たちはテクノロジーの概念を歴史的かつ超越的な仮定にまで落とし込むことによって、特定の出来事の影響を抽象化したように見えた。


人工知能の主観性の哲学



80 年代には、特定のテクノロジーの影響を自分たちの見解に統合したアメリカの哲学者の考えに基づいて、テクノロジーに対するより経験的な見方が発展しました(Achterhuis, HJ、「Van Stoommachine tot cyborg; denken over techniek in de nieuwe weld」、1997 年) ) 。テクノロジーと社会の相互依存がこの研究の主なテーマです。この「経験的転回」により、テクノロジーの多用途性とそれが社会で果たすことができる多くの役割を説明することが可能になりました。このアプローチは、トゥウェンテ大学などの技術哲学者の間でさらに発展しました。


人工知能は 1956 年に研究分野として確立されました。これは、コンピューティング マシンの知的動作に関係しています。研究の目的は次の 4 つのカテゴリに分類できます。


  • 人間のように考えるシステム。
  • 合理的に考えるシステム。
  • 人間のように動作するシステム。
  • 合理的に動作するシステム。


これらのタスクを達成できるという楽観的な見方が長年続いた後、この分野は、アプリケーションで役立つ可能性のあるインテリジェンスをどのように表現するかという課題に直面しました。これらには、基礎知識の欠如、計算の複雑さ、知識表現構造の制限が含まれます(Russell, S & Norvig、「Artificial Intelligence: A Modern Approach」、Peter、2009) 。しかし、課題はデザイン コミュニティだけから来たものではありません。プラトンの時代から心と推論に関心を持っていた哲学者たちも不平を言い始めた。彼らは、数学的反論 (チューリングとゲーデルに基づく) と、人間の知性の性質に関するより哲学的な議論の両方を使用して、AI プロジェクトの内部制限を示そうとしました。その中で最も有名なのはヒューバート・ドレフュスでした。


ヒューバート・ドレフュスが人工知能について語る

ドレフュスは、人工知能の目標と方法を、知能に対する明確な合理主義的な見解として捉えました。これは歴史を通じて多くの合理主義哲学者によって擁護されてきましたが、ハイデッガー、メルロ=ポンティ、ウィトゲンシュタインの著作に見られるように、ドレフュス自身はむしろ 20 世紀の反合理主義哲学の支持者でした。ドレフュスによれば、認識の最も基本的な方法は合理的ではなく直観的です。特定の分野で経験を積むと、人は最初の議論の研究中にのみ形式化されたルールに執着するようになります。その後、知性は経験則や直感的な判断によって表されることが多くなります。


AI の合理的なアプローチは、いわゆる記号 AI の基礎に明確にたどることができます。インテリジェント プロセスは情報処理の一形態として見なされ、この情報の表現は象徴的です。したがって、知性は多かれ少なかれシンボルの操作に限定されます。ドレフュスはこれを 3 つの基本的な仮定の組み合わせとして分析しました。


  • 人間の知性はシンボル操作の規則に基づいているという心理学的仮定。
  • 認識論的仮定は、すべての知識は形式化されているということです。
  • 存在論的仮定は、現実は形式化された構造を持っているということです。


ドレフュスはこれらの仮定を批判しただけでなく、知性にとって不可欠であると信じているいくつかの概念を定義しました。ドレフュスによれば、知性は具体化され、位置を特定されます。この実施形態は、知性が身体を必要とすることを意味するのか、それとも身体の助けがなければ発達できないのかが不明瞭であるため、説明が難しい。しかし、少なくともドレフュスが、知性は知的主体が位置する状況に依存し、要素はその文脈と意味のある関係にあると考えていることは明らかである。これにより、現実が形式化された存在に還元されるのを防ぎます。ドレフュスの観点では、明確に定義された形式的な領域を超えてシンボルを操作する機械の操作は不可能になります。


ドレフュスは、人工知能に対するコネクショニストのアプローチに対して、より積極的な態度をとっています。このアプローチでは、人間の脳のニューロンとその接続に似たモデル化された構造から、知的な動作が現れることがわかります。しかし、人間の脳の複雑さがそのような機械で実現できるかどうか、彼は疑問を抱いている。


したがって、ドレフュスは AI 目標の実現可能性についての議論を開始しました。彼の作品は多くの注目を集め、激しい議論を巻き起こしました。彼は、一部の研究者に視点を変えて、彼のビジョンにより適合するシステムの実装を開始させることにも成功しました。ドレフュスは、記号 AI によって行われる仮定を実証し、これらの仮定が実際のインテリジェント マシンをもたらすかどうかは決して明らかではないことを明らかにしました( Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer )


ただし、2 つの注意事項があります。まず、ドレフュスは、厳密な象徴的 AI アプローチに基づいて批判を行いました。ここ数十年、よりハイブリッドなインテリジェント システムを作成し、シンボリック AI に非ルールベースの手法を実装する試みがいくつか行われてきました。これらのシステムは、ドレフュスの分析では完全には説明できない知性についての異なる見解を提示します。第二に、ドレフュスの批判は人工知能に対する懐疑的な見方に基づいているように見えますが、これは部分的には彼自身の哲学的背景のため、部分的には熱意がほぼ無制限だった時代にその基礎が確立されたためです。


自由意志というのは奇妙な概念です。哲学では人間の心についてさまざまな方法で議論できますが、私たちが決定において自由であるかどうかという問題になると、議論は危険になります。私たちは意志、決断、行動という観点から考えることに慣れすぎているため、自分の選択に自由がないという可能性を考慮することさえほとんど拒否します。しかし、何か別のことがあります。このような議論の中で、人間には自由意志などまったく存在しない、と私が言ったらどうなるでしょうか?それが嘘なら私が間違っているし、もし本当ならそうしか言えなかったので発言全体の意味がなくなってしまいます。自由意志の否定は現実的な矛盾です。この否定を無意味にすることなく、人の自由意志を否定することはできません。


それにもかかわらず、科学理論は、起こることはすべて自然法則に従っていると主張できるため、自由意志の問題は関連しているように見えます。したがって、私たちが決定された有機機械になりたくない場合は、人々に特別な特性を与えるか、自然法則が決定されることを否定する必要があります。最初の選択肢は多くの哲学理論に関連していますが、最も重要なのは、世界を人間の中でつながっている 2 つの物質 (精神と物質) に分割するデカルトの理論に関連しています。 2 番目のオプションは、物理学の最新の発展 (相対性理論、量子力学) を使用して、私たちの自由意志が自然の予測不可能な力学に基づいている可能性があることを示す、より全体的なビジョンを開きます。


デカルトらの二元論的な考え方は、人間以外のものの自由意志の存在を否定します。したがって、自由意志と知的な機械についての議論は特に興味深いものではありません。一方、このような議論には全体的な視点の方が適していますが、人間やコンピュータに自由意志の性質を割り当てるために必要な物理的な仮定以外の結論に達することは困難です。これは純粋な哲学的な議論には適切かもしれませんが、コンピューター サイエンスとはほとんど関係がありません。


決定論的な見方と自由意志の見方の両方が正当化され必要であるため、人間の本性は本質的に矛盾していると認識する可能性もあります。この弁証法的アプローチにより、物理的な前提を気にせずに人間の自由意志について考えることができます。自由意志は人間であることを超越した前提となる。しかし、このアプローチにおける自由意志の超越論的な見方では、超越論的な前提をモデル化したり設計したりすることが不可能であるため、インテリジェントマシンなどの特定の人工物における自由意志についての議論はできません。さらにこのセクションでは、自由意志という複雑な概念を、インテリジェントマシンの分析に使用できる概念に変換します。この概念は、技術哲学における経験的アプローチと互換性があるはずです。したがって、私たちは自由意志の概念を物理的または超越論的な前提の観点から語ることを避け、むしろこの概念が社会において果たす役割に焦点を当てるべきです。


この記事での私のアプローチのヒントは、導入部分にあります。自由意志に関する議論に対する私の見解は、この分野の研究には根本的に異なる 2 つのアプローチがあるということです。最初のものは、自由意志の性質と、自然の「要求」を回避する人間の能力という深い哲学的問題に焦点を当てています。それを物理的アプローチと呼ぶことにします。インテリジェントマシンに関する記事では、これは、コンピュータの性質ではなく、人間の性質に焦点を当てた哲学的な議論につながります。なぜなら、私たちはとにかく自分の意志を守り、それについて何かを言わなければならない立場に陥るからです。コンピューターについての記事を書きたかっただけなので。つまり、人間もコンピュータも自分自身を認識することができない、人間とコンピュータの比較のような議論になってしまうのです。


このセクションの最初の段落で微妙に示唆されている別のアプローチは、私たち自身の自由意志を否定することの不可能性に焦点を当てています。前述したように、この否定には意味がありません。しかし、それは自分自身の価値を下げるだけでなく、全体としての責任の基盤を破壊します。これは、人々の言動を賞賛したり非難したりすることができないことを意味します。そのため、私たちは管轄権、仕事、友情、愛、そして私たちが社会を築いてきたすべての原則を再考する必要があります。これらの社会問題はすべて選択を必要とし、選択に関しては常に自由意志の概念が不可欠です。この本質は、自由意志が物理的に正当化されるかどうかに関係なく、私たちの社会にとって重要な前提であるということです。これをソーシャルアプローチと呼ぶことにします。


自由意志の推定が私たちの社会にのみ必要なのか、それともあらゆる人間社会に必要なのかは、難しい問題です。この質問は、私たち自身の社会の構造を単に指摘するよりも、自由意志の重要性についてのより哲学的な正当化を提供する可能性があるため、とにかくこの質問を検討してみます。人間の本性を再考し、自由意志への物理的アプローチを再導入することなしに答えることは不可能であるように思われます。しかし、相互作用が人類文明の核心であると述べるとき、自由意志の概念の必要性が自然に生じます。人との交流は、結果が事前に分からないことを意味するため、人々が交流の過程に自由に影響を与えることができると想定せずに人と交流することはできません。したがって、相互作用は選択によって特徴付けられ、したがって自由意志の概念によって特徴付けられます。どの社会においても相互作用が基本であるならば、自由意志はどの社会においても否定され得ないとも言わなければなりません。


人工知能の哲学に対するさまざまなアプローチ

記号人工知能 (AI) は、数値データではなく記号や概念の処理と操作に焦点を当てた AI の下位分野です。シンボリック人工知能の目的は、論理的なルールに基づいて知識と推論を表現および操作することによって、人間のように推論および思考できる知的システムを作成することです。


シンボリック人工知能のアルゴリズムは、世界のオブジェクトや概念とそれらのつながりを表すシンボルを処理することによって機能します。記号人工知能の主なアプローチは論理プログラミングを使用することであり、ルールと公理を使用して結論を導き出します。たとえば、患者から報告された症状に基づいて病気を診断するように設計されたシンボリック人工知能システムがあります。このシステムには、患者の状態に関する結論を引き出すために使用する一連のルールと公理があります。


たとえば、患者が発熱を報告した場合、システムは次のルールを適用できます。患者が発熱し、咳をしていて、呼吸困難がある場合、患者は肺炎を患っている可能性があります。


次に、システムは患者に咳や呼吸困難があるかどうかを確認し、そうである場合は、患者が肺炎を患っている可能性があると結論付けます。


このアプローチは、推論プロセスを適用された論理ルールまで簡単に追跡できるため、解釈が非常に簡単です。また、新しい情報が入手可能になったときに、システムのルールを変更および更新することも簡単になります。


シンボリック AI は、ロジックなどの形式言語を使用して知識を表現します。この知識は、シンボルを操作するアルゴリズムを使用する推論メカニズムによって処理されます。これにより、事前定義されたルールと知識に基づいて結論を導き出すことができるエキスパート システムと意思決定支援システムの作成が可能になります。


シンボリック人工知能は、大量のトレーニング データを必要としないため、機械学習や深層学習などの他の AI 手法とは異なります。代わりに、シンボリック AI は知識の表現と推論に基づいているため、知識が明確に定義され、論理ルールで表現できる分野により適しています。


一方、機械学習ではパターンを学習して予測を行うために大規模なデータセットが必要です。ディープ ラーニングはニューラル ネットワークを使用してデータから直接特徴を学習するため、複雑で非構造化データを含むドメインに適しています。


各手法をいつ適用するかは、対象領域と利用可能なデータによって異なります。シンボリック人工知能は明確に定義され構造化された知識を持つ分野に適しており、機械学習と深層学習は大量のデータと複雑なパターンを持つ分野に適しています。


人工知能哲学に対するコネクショニストのアプローチは、ニューラル ネットワークの原理と人間の脳との類似性に基づいています。このアプローチは、情報を処理し、データから学習するために、生物学的システムの相互接続されたニューロンの動作を模倣することを目的としています。コネクショニストアプローチの重要な側面をいくつか紹介します。


コネクショニストのアプローチには、人工ニューロンまたはノードと呼ばれることが多い、相互接続されたノードで構成される人工ニューラル ネットワークの作成が含まれます。これらの人工ニューロンは、入力データを受信し、計算を実行し、ネットワーク内の他のニューロンに信号を送信するように設計されています。


コネクショニストのアプローチでは、ネットワーク内の人工ニューロンが連携して情報を処理すると想定しています。各ニューロンは入力信号を受け取り、それに基づいて計算を実行し、出力信号を他のニューロンに送信します。ネットワークの出力はニューロンの集合的な活動によって決定され、情報はニューロン間の接続を介して流れます。コネクショニストのアプローチの重要な側面は、人工ニューラル ネットワークがデータから学習できることです。学習プロセス中に、ネットワークは入力データと望ましい結果に基づいてニューロン間の接続の強度 (重み) を調整します。ネットワークの予測出力と期待される結果の反復比較に基づいて、重みが更新されて差異が最小限に抑えられ、ネットワークのパフォーマンスが向上します。


コネクショニスト システムは、複数の計算がネットワーク上で同時に実行される並列処理に重点を置いています。これにより、効率的かつ信頼性の高い情報処理が保証されます。さらに、コネクショニスト モデルは分散表現を使用します。これは、情報が単一の場所に局在化されるのではなく、複数のニューロンでエンコードされることを意味します。この分散表現により、ネットワークは複雑なパターンを処理し、限られた例に基づいて要約することができます。


コネクショニストのアプローチは、複数の層で構成されるディープ ニューラル ネットワークのトレーニングに焦点を当てた人工知能のサブフィールドであるディープ ラーニングの基礎です。深層学習モデルは、コンピューター ビジョン、自然言語処理、音声認識などのさまざまな分野で大きな成功を収めています。彼らは、階層データ表現を自動的に学習し、複雑なタスクで高度なパフォーマンスを提供する機能を実証しました。


一般に、人工知能哲学に対するコネクショニストのアプローチは、人間の脳の処理の協調的かつ並列的な性質を模倣するための人工ニューラル ネットワークの使用を強調しています。コネクショニスト システムは、重み調整を使用してデータから学習することにより、複雑な問題を解決し、AI アプリケーションで素晴らしい結果を達成するのに非常に効果的であることが証明されています。


ニューラル ネットワークは、人間の脳などの生物学的なニューラル ネットワークの構造と機能にヒントを得た計算モデルです。これは、層状に配置された相互接続されたノード (人工ニューロン) で構成される数学的構造です。ニューラル ネットワークはデータの処理と学習を目的としており、パターンを認識し、予測し、さまざまなタスクを実行できるようにします。


人工ニューロンは、ニューラル ネットワークの基本単位です。各ニューロンは 1 つ以上の入力データを受け取り、それらの入力データに対して計算を実行し、出力データを生成します。出力データは通常、ネットワーク内の他のニューロンに送信されます。


ニューラル ネットワーク内のニューロンは、ニューロン間の情報の流れを表す接続を通じて互いに接続されます。各接続は、送信される信号の強度または重要性を決定する重みに関連付けられます。重み係数は学習プロセス中に調整され、ネットワーク パフォーマンスが最適化されます。


ニューラル ネットワークは通常、層状に配置されます。入力層は初期データを受け取り、出力層は最終結果または予測を生成します。間に 1 つ以上の隠れ層が存在する場合があります。隠れ層を使用すると、ネットワークは入力情報を変換および結合することで複雑な表現を学習できます。


各ニューロンは、入力データの加重合計に活性化関数を適用して、出力信号を生成します。アクティベーション関数はネットワークに非線形性をもたらし、複雑な接続をモデル化し、非線形予測を行うことができます。


ニューラル ネットワークは、フィードフォワード原理に基づいてデータを処理します。入力データは、各ニューロンで計算が実行され、ネットワークを層ごとに通過します。 1 つの層の出力は、最終結果が生成されるまで次の層への入力として機能します。


ニューラル ネットワークは、トレーニングと呼ばれるプロセスを通じてデータを学習します。トレーニング中、入力データは、対応する必要な出力とともにネットワークに提示されます。その予測と望ましい結果を比較することにより、勾配降下法や逆伝播などのアルゴリズムを使用してネットワークの重みが調整されます。この反復プロセスにより、ネットワークは予測と期待される結果との間の差異を最小限に抑えることができます。


ディープ ニューラル ネットワーク (DNN) は、複数の隠れ層を持つニューラル ネットワークを指します。ディープ ニューラル ネットワークのトレーニングに焦点を当てたディープ ラーニングは、階層表現を自動的に学習し、データから複雑なパターンを抽出する機能により、近年大きな注目を集めています。


ニューラル ネットワークは、画像認識、自然言語処理、音声合成など、さまざまな分野で大きな成功を収めています。これらは、大量のデータを処理し、例に基づいて要約し、複雑な計算を実行できるため、人工知能の分野における強力なツールになります。


人工知能分野における哲学的問題と議論


「物質的なものがどのように意識され得るかについては、誰も知りません。物質的なものがどのようにして意識され得るのかを少しでも知ることがどのようなものになるのか、誰も知りません。」 (ジェリー・フォーダー、アーネスト・レポー、「Holism: a Shopper's Guide」、ブラックウェル、1992 年) 。この言葉はジェリー・フォーダーの言葉だと信じられており、機械がどのようにして意識を持ち得るかを解明しようとして私が直面したすべての困難をこの言葉が説明していると私は信じています。しかし、この言葉は、人工意識を備えた機械を作ることができると主張する試みを放棄するよう私に勧めるものではありません。実際、彼らはその逆を行います。彼らは、私たち(物質的存在)が意識を持つことができるのであれば、意識は物質的なものに違いなく、したがって理論的には人工的に作り出すことができる、と考えるように促します。


意識において重要な点は、これは一つのものではないということです。これは多態性の概念のセットであり、そのすべてがさまざまな方法で混合されています。したがって、それらすべてを解きほぐし、それぞれを個別に説明しようとすることは困難です。このことを念頭に置くことが重要です。なぜなら、私はこの問題のいくつかの側面を説明するために最善を尽くしていますが、それらの相互関連性が難しくなっているからです。私の結論では、これらの概念をすべて組み合わせて、仮想マシンにおける強力な人工意識の実現可能性を正当化しようとしています。


一般に、人工意識(以下、AC)は、弱いACと強いACの2つに分けられます。弱いACは「意識的な行動のシミュレーション」です。これは、意識を生成するメカニズムを理解していなくても、意識のある存在の行動をある程度の詳細レベルでシミュレートするインテリジェントなプログラムとして実装できます。強力なACとは、「高度なコンピューティングマシン(人工脳)から得られる真の意識的な思考」です。この場合、自然の同等物との主な違いは、プロセスを生成するハードウェアに依存します。」しかし、クリスリーのような学者の中には、ACには多くの中間領域、彼が人工意識ラグと呼ぶものがあると主張する人もいます。


コンピューティングの革新が毎年急激に成長するにつれ、高出力 AC の実現可能性がますます重要になってきています。人工知能 (以下、AI) が SF の世界から科学の分野に移行するにつれ、ますます多くの科学者や哲学者が人工知能に詳しく取り組んでいます。スティーブン・ホーキング博士、イーロン・マスク、ビル・ゲイツを含む世界の主要な思想家の多くは最近、全人類の利益のために責任を持って AI を使用することを求める公開書簡に署名しました。この声明は、この種の人工知能 (純粋に知的) については言及していません。また、「AI をどのようにプログラムすべきか?」という質問を提起する、いわゆる「マシン クエスチョン」とも関連していません。つまり、どのような倫理教義を教えるべきなのか、そしてその理由は何ですか?


これらのトピックは興味深いものであり、非常に重要ですが、ここでこれらの問題を詳細に分析するには十分な時間がありません。これについて詳しくは、数例を挙げると、Nick Bostrom、Miles Brundage、George Lazarus を参照してください。


私たちは、機械が知的に動作できることをすでに知っています。そして、人間がそうするようにプログラムされているので、機械は論理を使って問題を解決し、解決策を見つけることができるが、現象的な意識に対する機械の能力についての疑問が浮上し、広まっている。私たちは感情、経験、自由意志、信念などを持っているという点で機械とは異なります。ほとんどの人は、私たちの遺伝学と生物学に特定の「プログラム」があることに同意していますが、自分自身で選択を行うことができ、人工的なコンピュータプログラムは、彼らの最初のユニークな個人的な主観的な経験を再現することはできません。


しかし、強力な交流を生み出すことができる機械が存在する機会がなければ、この発言は面白くありません。強力なACと互換性のある意識の理論で最も引用されているのは機能主義です。これは、意識はその機能によって定義されることを意味します。理論的には単純化されていますが、機能主義にはいくつかのタイプがあります。この理論は、アラン チューリング、チューリング マシン、チューリング テストとの関連で知られています。行動主義の子孫である彼は、心を計算的に捉え、機能こそが意識の真のパラメーターであるという考えを(時々)持っています。彼はまた、現象的意識、質的状態、およびクオリアを説明できないことでも知られています。このパズルには多くの答えがありますが、私は質的状態についての存在論的に保守的な消去主義的見解を支持しています。それが排除主義的であるのは、通常定義されるようなクオリアは存在し得ないと私が主張しているからです。しかし、私は、クオリアと質的状態に対する私たちの直観的な理解が間違っているという考えを否定します。クオリアの概念は単純に誤解されています。それらは人工的に作り出すことができます。これは仮想マシンのより大きな機能主義の部分理論であり、これによれば、意識のある存在は一度に 1 つの特定の精神状態に限定されるのではなく、常に同時に複数の状態にあります。仮想マシンでは、これはさまざまなシステムとサブシステムによって説明されます。


道徳主体の究極の基準 (そして自律性の 3 条件理論の究極の要件、つまり合理的に行動する) は合理性です。この基準はおそらく人工エージェントにとって最も議論の余地のないものであるため、私はそれを最後に置いています。合理性と論理は、大衆文化における人工エージェントの特徴です。現代のコンピューターと弱い AI システムは、そのロジックで知られています。彼らは大規模な計算を実行し、非常に複雑な決定を迅速かつ合理的に行うことができます。しかし、人工エージェントの合理性については議論がないわけではありません。前に見たように、サールは、意味論と同等の構文は存在し得ないと主張し、機械が実際に思考して理解する能力について懸念を表明しています。私はすでに中国人の部屋とこの問題への私の対応について取り上げましたが、意識の多態性の性質と、意識理論におけるクオリアと現象的意識の説明の重要性をもう一度強調したいと思います。


自律的な合理性と一般的な合理性は同じものではないことに注意する必要があります。自律性の観点から見ると、合理性とは、「動物的本能」を超えて、自分自身の合理的なルールに従って人生を生きることができるように、自分の意志を植え付ける行為であり、行動する前に考えることを意味します。この点で、現代のコンピューターや弱い AI システムの合理性は自律的ではありません。彼らには選択の余地がありません。彼らは単にプログラムされたことを実行するだけです。いくつかの点で、これは自由な選択が含まれるため、上で説明したアルゴリズムの決定論的な追従に関連しています。これまで見てきたように、仮想マシンは非常に複雑になる可能性があります。つまり、現象的に意識的で、非決定的 (「自由」)、内部的に意図的で、敏感 (信念、欲望、痛み、喜びを経験できる) です。しかし、結局のところ、それはまだ機械です。この複雑さのレベルに達するものは、正確、合理的、アルゴリズム的、アーキテクチャ的に設計されており、アルゴリズム コンピューターの「冷静な合理性」が意識と結合することで自律的に合理的になります。その感情、つまり感情、現象的意識、痛み/喜びを経験する能力、そしてそれによる信念と欲望により、快楽主義的な感情を克服し、合理的で自律的な決定を下す準備が整います。


人工知能 (AI) は、今日非常にダイナミックな研究分野です。 1950年代に設立され、現在も存続しています。 AI の開発中、さまざまな研究方法により競争が促進され、新しい課題やアイデアが生まれ続けています。理論の発展には多くの抵抗がある一方で、技術の進歩は科学史上まれにみる輝かしい成果を上げています。


AI とその技術ソリューションの目的は、機械を使用して人間の知能を再現することです。そのため、その研究対象は物質的な領域と精神的な領域にまたがり、非常に複雑なものとなっています。知能の特徴は AI 開発の曲がりくねった性質を決定し、AI が直面する問題の多くは哲学に直接関係しています。多くの AI 専門家が哲学に強い関心を持っていることは容易にわかります。同様に、AI の研究結果も哲学界から大きな注目を集めています。


人工知能の現代科学の基礎研究としての認知研究の目的は、人間の脳の意識の構造とプロセスを明確に理解し、人間の意識の知性、感情、意図の組み合わせについて論理的な説明を提供することです。なぜなら、人工知能の専門家は、これらの意識プロセスの形式的な表現を促進するからです。人間の意識を模倣するには、人工知能はまず意識の構造と動作を学習する必要があります。意識はどのようにして可能になるのでしょうか?サール氏は、「何かがどのように可能であるかを説明する最良の方法は、それが実際にどのように存在するかを明らかにすることである。」と述べました。これにより、認知科学は人工知能の開発を進めることができます。重要なことに、これが認知の転換が起こっている最も重要な理由です。それは、物理記号システム、エキスパート システム、知識工学から生物学的コンピューターとその開発に至るまで、コンピューター科学と技術がどのように発展するかに関係なく、哲学と認知心理学、認知神経科学、脳科学、人工知能およびその他の分野との相乗関係によるものです。量子コンピューターのこと。


それは、哲学による人間の意識の全過程とさまざまな要因の知識と理解と切り離すことができません。人工知能が強いか弱いかに関係なく、認識論的な観点から見ると、人工知能は人間の思考の機能の一部をシミュレートするために物理的シンボルのシステムに依存しています。しかし、人間の意識の真のシミュレーションは、ロボット自体の技術革新だけでなく、意識のプロセスとそれに影響を与える要因の哲学的理解にも依存します。現在の観点から見ると、人工知能の哲学的問題は人工知能の本質ではなく、知的モデリングのより具体的な問題の解決策です。


意図性の問題に関して、機械は心や意識を持つことができるのでしょうか?もしそうなら、それは意図的に人々に危害を加えることができますか?


コンピュータが意図的であるかどうかに関する議論は、次のように要約できます。


  1. 意図性とは何ですか?ロボットが指示に従って特定の動作をするのは意図的なのでしょうか?


  2. 人々は行動する前に、自分が何をしているのかをすでに知っています。彼らは自己認識を持っており、自分の行動がどのような結果をもたらすかを知っています。これは人間の意識の重要な特徴です。では、ロボットが指示に従って特定の動作をすることをどのように理解すればよいのでしょうか?


  3. 意図性はプログラムできるのでしょうか?


    サールは、「脳が機能して心臓を作り出す方法は、単にコンピュータープログラムを操作する方法ではありえない」と信じています。代わりに、人々はこう尋ねるべきです:志向性は理解可能な精神ですか?それが理解できるのであれば、なぜプログラムできないのでしょうか?サールは、コンピュータには文法はあっても意味論はないと考えています。しかし実際には、文法と意味論は 2 つで 1 つの問題であり、決して分離されることはありません。プログラムに文法と意味論を一緒に組み込むことができる場合、文法と意味論を区別する必要があるでしょうか?サール氏は、たとえコンピュータが意図的にコピーしたとしても、そのコピーはオリジナルではないと主張する。実際、人間の認知と人間の行動との関係を明確に理解できれば、精神プロセスと人間の脳の行動との関係をプログラムし、私たちが知っているあらゆる種類の人々を入力できるはずです。これは、コンピュータが「すべてを知る」ための情報です。しかし、そのとき私たちはサールの言うとおりになれるでしょうか?知能ではなく人工知能なのか?人工知能には人間のタンパク質や神経細胞が欠けているため、意図性や思考プロセスが存在しないのでしょうか?意図的なコピーは「意図的」なのでしょうか?コピーすることは本当の「理解」なのでしょうか?アイデアの重複は「思考」なのでしょうか?思考の重複が「思考」なのか?私たちの答えは、「基礎は異なりますが、機能は同じです」です。異なる基盤に依存して同じ機能を形成する人工知能は、人間の知能を実現する特別な方法にすぎません。サールは意図性を利用して人工知能の深さを否定します。人工知能が人間の思考をシミュレートできるという一定の根拠はありますが、たとえ人工知能と人間の知能が大きく異なると人々が考えていたとしても、その違いはもはや意味がないと感じるでしょう。サールの視点は、再び人間の心を謎に陥らせるだけです。



知能の問題に関しては、機械は人間と同じように知能を使って問題を解決できるのでしょうか?それとも、複雑な問題を解決するための機械の知能には限界があるのでしょうか?


ポランニーによれば、人はいわゆる隠れた能力を無意識のうちに使うことがあります。「人は表現できる以上のことを知っている」そうです。これには、サイクリングとウォーミングアップに加えて、より高いレベルの実践的なスキルが含まれます。残念ながら、ルールを理解していなければ、コンピューターにルールを教えることはできません。これがポランニーのパラドックスです。この問題を解決するために、コンピューター科学者は人間の知能を変えようとするのではなく、人工知能の新しい考え方、つまりデータによる思考を開発しました。


Microsoft Research の上級研究員であるリッチ・カルアナ氏は、「人工知能の原則は、まず人間を理解し、その後同じ方法で人工知能を作成することだと思われるかもしれませんが、そうではありません。」と述べています。 」


今日の人々は一般に、スマート コンピューターが私たちの仕事を奪うと考えています。朝食を食べ終わる前に、週ごとの仕事量はすでに完了しているため、休憩を取ったり、コーヒーを飲んだり、退職したり、寝る必要さえありません。しかし真実は、将来的には多くのタスクが自動化される一方で、少なくとも短期的には、この新しいタイプのインテリジェントマシンが私たちと協力してくれる可能性が高いということです。


人工知能の問題は、ポランニーのパラドックスの現代版です。人間の脳の学習メカニズムは完全には理解されていないため、人工知能に統計のように考えさせています。皮肉なことに、現時点では人工知能がどのように考えるかについての知識はほとんどないため、未知のシステムが 2 つ存在します。これはよく「ブラック ボックス問題」と呼ばれます。入力データと出力データはわかっていますが、目の前のボックスがどのように結論に至ったのかはわかりません。カルアナ氏は、「現在、私たちは 2 つの異なるタイプの知能を持っていますが、両方を完全に理解することはできません。」と述べています。


人工ニューラル ネットワークには言語機能がないため、他の人工知能と同様に、自分が何をしているのか、なぜしているのかを説明することができず、常識も欠如しています。一部の AI 操作により、性差別や人種差別などの意識的な偏見が隠蔽される可能性があるとの懸念が高まっています。たとえば、犯罪者が犯罪を繰り返す確率を評価するために使用される最近のソフトウェアがあります。黒人に対しては2倍厳しいです。受け取ったデータが完璧であれば、その決定は正しい可能性が高くなりますが、ほとんどの場合、それは人間のバイアスの影響を受けます。


倫理の問題に関して言えば、機械は人間にとって危険であり得るでしょうか?科学者は、機械が倫理的に行動し、人間に脅威を与えないようにするにはどうすればよいでしょうか?


機械が愛や憎しみなどの感情を感じることができるかどうかについては、科学者の間で多くの議論が行われています。彼らはまた、人間がAIに善と悪を意識的に追求することを期待する理由はないと信じている。人工知能がどのようにリスクになるかを考えるとき、専門家は最も可能性の高いシナリオが 2 つあると考えています。


  • AI は破壊的なタスクを実行するように設計されています。自律型兵器は、殺人を目的として設計された人工知能システムです。これらの武器が悪者の手に渡れば、簡単に多大な損害を引き起こす可能性があります。さらに、AIの軍備競争によって意図せずAI戦争が勃発し、多数の犠牲者が出る可能性もある。敵軍からの干渉を避けるために、「非公開」兵器プログラムは非常に複雑になるように設計されるため、そのような状況では人間も制御を失う可能性があります。このリスクは特殊な人工知能 (狭い範囲の AI) にも存在しますが、インテリジェントな AI とより高いレベルの自己指示になるほどリスクは増加します。


  • AI は有用なタスクを実行するように設計されていますが、AI が実行するプロセスは破壊的なものになる可能性があります。これは、人間と人工知能の目標がまだ完全に一致していない場合に発生する可能性がありますが、人間と人工知能の目標の一致に取り組むのは簡単な作業ではありません。想像してみてください。空港まで最速で連れて行ってくれるスマートカーを呼んだ場合、たとえ望まない方法であっても、車は必死に指示に従うかもしれません。ヘリコプターに追いかけられたり、スピード違反で嘔吐したりするかもしれません。スーパースマート システムの目的が野心的な地球工学プロジェクトである場合、副作用として生態系の破壊が生じる可能性があり、これを阻止しようとする人間の試みは排除すべき脅威とみなされるでしょう。


概念性の問題に関しては、人工知能の概念的基礎に問題があります。


あらゆる科学はその知識に基づいており、科学的観察の能力さえも既知の事柄と結びついています。未知のものを理解するには、私たちが知っていることだけに頼ることができます。既知と未知は常に一対の矛盾であり、常に共存し、依存し合っています。既知のものがなければ、未知のものを学ぶことはできません。未知のことがなければ、科学的知識の発展と進化を確実にすることはできません。人間が物体を観察するときに、観察者が得る経験は眼球に入ってくる光によって決まるわけではないという証拠はたくさんあります。信号は観察者の網膜上の像だけで決まるわけではありません。二人の人が同じものを見ても、異なる視覚的印象を与えます。ハンセン氏が述べたように、観察者が物体を見るとき、眼球が触れる以上のものが見えます。観察は科学にとって非常に重要ですが、「観察に関する記述は特定の理論の言語で行われなければなりません」。 「観察に関する発言は公共の主題であり、公の言葉で行われます。それらには、さまざまな程度の普遍性と複雑さの理論が含まれています。」これは、観察には理論が必要であることを示しています。科学には先行する理論が必要であり、科学的理解は未知のものに基づいているわけではありません。企業は自社のビジネスに最適な選択肢を理解していないことが多く、人工知能のコンサルティング サービスは AI を活用してビジネスをナビゲートしようとしています。


人工知能の開発と応用に対する哲学の影響


アプローチには明らかな違いがありますが、テクノロジー (一般的に) と哲学は同じ関心対象、つまり人間を共有しています。


テクノロジー開発の目的は、日常生活における特定の実際的な問題を解決し、それによって近い将来人類にとっての有用性を高めることです。しかし、ほとんどの場合、技術開発の範囲は、それが対処する実際的な現在の問題を超えることはありません。問題が技術的に解決できる場合は、そうする必要はありません。テクノロジーは常に 1 つの目標、つまり役に立つことを追求します。これは純粋に手段的なアプローチであるように思われます(M. Taddeo と L. Floridi、「How AI can be a power for Good」、Science、2018 年 8 月)。製品の副作用についてはほとんど考慮されていません。


対照的に、哲学は現在の問題や人間存在の実際的な側面だけを扱っているわけではありません。特定のトピックについて可能な限り幅広い視点を形成するために、哲学的分析では、研究対象自体だけでなく、その倫理的意味や人間の問題に対するその他の考えられる影響も検討します。その一環として、価値観の出現、発展、性質の研究が行われます。したがって、特定の価値体系の変化を見つけるために、一般的な立場と現在の出来事を注意深く分析および批判することが、哲学の分野における主な仕事です。


哲学とテクノロジー:矛盾か共生か?

つまり、哲学は通常、新しい問題や問題を提起しますが、テクノロジー、特にAIの目的は当然、特定の既存の問題を解決することです。このように考えると、これら 2 つの分野の共生は一見すると逆説的に見えます。


しかし、より多くの新しい疑問を投げかけ、提案された技術的解決策を批判することによって、特に根底にある問題を正確な哲学的方法で検討することによって、テクノロジーは長期的でより詳細な解決策を提供することができます。哲学は、論理分析、倫理的および道徳的検討、適切な質問をするための深い方法論など、この予測プロセスのためのツールを提供します。これを大局的に考えると、AI は仕事の未来にどのような影響を与えるでしょうか?


これは間違いなく、新しいテクノロジーの将来を見据えた開発を補完します。開発プロセスが問題と提案された技術的解決策の両方から可能な限り多くの結果を考慮に入れると、将来の問題を持続可能な方法で解決できます。これらすべては、テクノロジーのサブセットとしての人工知能に当てはまります。人工知能は現在、「インテリジェントなマシン、特にインテリジェントなソフトウェアを作成する科学技術」と定義されるべきです(「Closer to the Machine: Technical, Social, and Legal Aspects of AI」) 、ビクトリア州情報コミッショナー事務局、トビー・ウォルシュ、ケイト・ミラー、ジェイク・ゴールデンフェイン、ファン・チェン、ジャンロン・チョウ、リチャード・ノック、ベンジャミン・ルービンスタイン、マーガレット・ジャクソン、2019年)。


しかし、人工知能と哲学の関係はさらに広範囲に及びます。


AI と哲学: 特別な関係

人工知能と哲学の間の独特の関係は、コンピューター科学者のジョン・マッカーシーによってすでに強調されています。哲学は一般にすべての技術科学を補完しますが、特別な学問としての人工知能にとっても非常に重要であり、この分野に基本的な方法論を提供します。


哲学者は AI の基本概念のいくつかを開発しました。例としては、「...人工物が知的であるとみなされるために備えなければならない特徴の研究」 (「産業革命: 産業界の 4 つの主要な革命」、Sentryo、2017 年 2 月 23 日) 、または初歩的なものが含まれます。合理性の概念。これも哲学的言説から生まれました。


この文脈でさらに興味深いのは、人工知能の進化を導き、私たちの生活への統合を組織化するために哲学が必要であるという事実です。それは、哲学が単なる技術だけでなく、全く新しい未踏の倫理的および社会的問題にも関係しているからです。