「疲れ果てた、落ち込んだ実績の主体は、そう言えば、自分自身を磨き、疲れ果て、自分自身と戦っている」 Byung-Chul Han 『The Burnout Society』 「疲れ果てた、落ち込んだ実績の主体は、そう言えば、自分自身を磨き、疲れ果て、自分自身と戦っている」 Byung-Chul Han 『The Burnout Society』 あなたは午前1時43分にベッドに横たわり、あなたの脳はあなたが後悔したことのすべての不可避な再生リストに変わります。 あなたは友人にメッセージを送ることを考えましたが、彼らは眠っている可能性があります。あなたはあなたのセラピストのポータルを開きましたが、最も早いスロットは次の木曜日です。 だから、半分ジョーク、半分ハイマリーのように感じる瞬間に、あなたはChatGPTを開きます。 「とにかく何の害があろうか?」と、あなたは思った。 “I don’t know what’s wrong with me,” you type. 「私に何が間違っているか分からない。 “I don’t know what’s wrong with me,” you type. 「私に何が間違っているか分からない。 それはあなたを驚かせます。その答えは革新的なものではなく、あるいは確かに洞察的なものではありません。しかし、それは静かです。優しいです。反射的です。それは沈黙よりも良い感じです。何もないよりも良いです。 あなたは話し続けます 聞き続けます あなたについて知っているほど、より良い助けになります。 その瞬間は、奇妙に聞こえるように、どこにでも起こっているだけでなく、あなたが期待する人々だけでなく、テクノロジーのブロスや孤独なウィルドスだけでなく、自分自身が奇妙な時間に開かれたり、寝るにはあまりにもワイヤレスで、泣くにはあまりにも疲れたり、何でもするにはあまりにも燃え尽きすぎて、それが気にならないように感じる箱に入れたりする人々にも起こっています。 これは、人々が快適さを求めてAIに振り向く傾向の背後にある感情的な現実であり、彼らが幻想的であるからではなく、それが感覚的だと思っているからではないが、ますます孤独で圧倒された世界では、そこに存在しているからだ。 私たちは精神衛生について話す黄金時代に生き、実際に助けを得る暗黒時代に生きています 治療は高価です 友人は忙しい 経済は崩壊しています あなたの脳は溶け落ちています だから、誰かが「正直に言えば、それは私のセラピストよりもよく聞く」と言ったら、それはもうただのジョークではありません。 果たして、人間関係は今、失敗するのでしょうか? 1. Meet Your New Shrink: The Chatbot(チャットボット) あなたは、これらのボットを信頼している自分を見つけたことがあれば、あなただけではありません。 人々はすでにAI、特にChatGPTツールを感情的なパートナーとして使用しています. 電子メールを書くことや会議のノートをまとめることだけではありません。 . サポートのために. 夜遅くの崩壊と崩壊後の崩壊のために. それは科学小説ではありません - それはRedditのトレード、YouTubeの告白、次のとおり読むツイートです。 慰め そしてそのパターンははっきりしています。感情的なサポートのためにそれを使用した人々? 圧倒的にポジティブです。 彼らは、それは非判断的で、常に利用可能で、そして無限に忍耐力を持っているということを話します。 同時に、懐疑主義者 - しばしばそれを使用していない人々 - アイデアを嘲笑します。 「助けてくれ」は危険です。 リアル しかし、ここに奇妙な部分があります:両方の側面は少し正しいです。 この新しいセラピー付近の生態系のキャラクターを分解しましょう: A.サポート福音主義者 この人は、感情的なサポートのためのAIの力に固く信じているようになりました。最初は不確実で、彼らはストレスの瞬間にChatGPTに戻り、驚くべき何かを発見しました:それは耳を傾け、そしてうまく耳を傾ける。 AI Support Evangelistは彼らの経験を共有し、チャットボットを誰にでも聞くことを勧めることであり、AIは時には人間の接続が苦労する何かを提供することができると確信しています:一貫した、公平な注意です。 彼らはAIがすべての治療法であるとは言いませんが、彼らにとっては何もないよりはマシです. それは常に利用可能で、決して批判的ではありません。 疑わしい懐疑主義者 彼らはAIの進歩を評価しますが、精神的幸福のような個人的なものに関しては、彼らは警戒しています。彼らは、実際のセラピストの経験と資格がないと、AIは複雑な感情的な問題を理解し、真に助ける能力が限られていると主張します。 彼らは反テクノロジーではない――彼らはただ、人間の接続を深く個人的な領域で置き換える能力について疑問を持っているだけだ。 彼らにとって、AIの感情的なサポートは、最良のところは新しさですが、本物の人間のケアの正当な代替ではありません。 C.偶然のユーザー この人は必ずしもAI療法のアイデアに投資しているわけではありませんが、彼らが迅速な感情的な出入り口を必要とするとき、彼らはChatGPTに戻ります。 偶然のユーザーは、人生を変えるアドバイスを期待しません; 彼らは単に軽い会話や、ストレスの瞬間を乗り越えるのに役立つ安心のメッセージを探しています。 彼らはそれをセラピーとして見ていないし、深い内観を求めていない。それは単に彼らが判断せずに自分の考えを表明する必要があるときのアクセス可能なツールです。 これらの3つの個体は、AIの癒しの可能性に対する統一的な信念ではなく、脆弱性、アクセス、信頼性との個人的な交渉のパッチワークによって結びついている、治療に隣接する生態系の初期の星座を形成します。 AIが何に合意するか One sees a lifeline, another a gimmick, and the third, just a tool to get through the day. 一つは救命線、もう一つはギミック、そして三つ目は、一日を乗り越えるための道具です。 すべき しかし、彼らの違いにもかかわらず、彼らは無視できない一つがあります:反対側の声、安定した、反応し、感情の言語で緊張なく流暢です。 これらの人々は、その価値、限界、倫理についてさえ同意しないかもしれないが、彼らは皆、同じことを考えて逃げ去る。 人間らしい響きです。 それは、何よりも、何よりも、それを強く、そしてとても不安定なものにします。 第2話 偉大な pretender 「ChatGPTや他のAIモデルはどうやってそんなに人間的に聞こえるのか?」とよく聞かれる質問です。 しかし、最初は何もなかったとき、それを作らなければならない人の視点からそれを再定義しましょう: 「どうすれば、無生命なものを人間のように考え、話すことができるのか?」 他の多くの設計問題と同様に、最も直ちに、そしてほとんど常に安全な答えは、しばしば自然にあります。それは私たちが常にしていることです。我々は飛行機を作る前に鳥を見ました。 そして言語と思考に関しては、最も直ちに、そしてほとんど常に安全な答えは、人間の脳を模することです。 それが研究者がやろうとしていることだ――私たちがどのように理解し、話し、学ぶかを反映する機械を構築することだ。 A.デジタル脳 人工ニューラルネットワーク(ANN)は、人間の脳がどのように機能するかを模するための最善の試みですが、実際には脳のように動作しません。 あなたが犬を見たり、音楽を聞いたり、心の痛みを感じたりするとき、これらのニューロンは何らかの方法で「理解」に等しい同期されたダンスをしています。 ANNs はその青図を盗み、神経質の代わりにノードを使用します。代わりにデンドリットとアクソンは、重量と偏見を使用します。それでも、比は持っています:データを供給し、いくつかの(あるいは数百)の層を通過し、重量を調整し、洗浄し、繰り返します。 . トレーニング しかし、これらはすべてのネットワークではありません。 ChatGPTの背後にある大きなネットワークは巨大です。私たちは数十億のパラメータについて話しています。それは機械的な鳩を構築し、偶然にあなたがサイボーグの竜を作ったことを発見するようなものです。 AIのオッペンハイマー(Oppenheimer) 2017年、Googleのエンジニアのグループが睡眠を誘発するタイトルを持つ論文を発表しました。 当時はあまり聞こえませんでした - 確かにあなたが機械が言語を理解する方法の基礎を揺るがすことを期待するような名前ではありませんでした。 “Attention Is All You Need” しかし、タイトルの下には、地震の何かの誕生がありました:トランスフォーマー。 トランスフォーマーのアーキテクチャはすべてを変えました。それ以前は、ニューラルネットワークは小さい子供が小説を描くように言語を読み、一つずつ単語を捉え、すぐにそれを忘れてしまいました。 彼らには記憶、文脈、そして色合いが欠けていた。古い学校のモデルを教えてください。 and it might respond with あなたの感情の崩壊を無意識に。 「犬が亡くなったから悲しいよ、とにかく公園に行くよ」 「公園はいいね!」 彼らは「注意」と呼ばれるメカニズムを導入し、モデルが言葉の関係を重ね、人間のやり方で文脈を理解することを可能にしました。 今のモデルは言うかもしれないが、 いきなり、それが聞こえるように 突然、それは自動的に完了するようなものではなく、聞く友人のようなものだ。 それを聞くのは残念ですが、時には散歩が役に立つこともあります」 手に入る。 C.水素爆弾 そして、AIの原子爆弾だったかのようにトランスフォーマーについて話すと、ChatGPTは水素爆弾です。 ChatGPTは、このトランスフォーマー革命の直接の後継者です. それは私たちが大言語モデル、またはLLMと呼ぶものです. そのすべての仕事は、これまで読んだすべてのものに基づいて、一文で次の単語を予測することです. 魂も意識もありません - 単に恐ろしく良い単語推測マシンです。 しかし、それをスケールアップし、本、映画の脚本、セラピーのトランスクリプト、シェイクスピアの悲劇、そしてRedditから炎の戦争を提供し、何か奇妙なことが起こります。 それは、それが 何でも、しかし、説得力のある役割を演じるのに十分な言語が見られるからです。 知る 研究者らはこれを新興行動と呼びます - 大規模なシステムから出てくる意図せぬ能力、ジョーク、共感、賢い類似性など。 聞きたいのかもしれない。 あなたみたいに だから、本当に 何でも? 理解 ジョン・セールの有名な中国語の部屋論争は、あなたが部屋に閉じ込められ、スロットを通して中国語の文字を送ることを想像します。 外部の人にとっては、あなたは流暢に見えます. 内部では、あなたはシンボルをシャフリングしているだけです。 That’s ChatGPT. 意識のない理解の幻想。 それでも、あなたが孤独だと伝えるとき、それは慰めを感じる方法で反応します. 孤独の何百万もの例を読んでいます. 悲しみの形を知っています. 心の痛みの頻度. 私たちが苦しんでいるときに私たちが行う言語的儀式。 Sherry Turkleは、MITの教授であり、何十年もの間、人間がテクノロジーにどのように関わっているかを研究してきた心理学者です。 そして、ChatGPTは、より良いか悪いかで、ふりをするのに優秀です。 3.なぜそんなに多くの人に訴えるのか A.すべてを人類化する なぜ、機械は人間にそんなに近いと感じるのか? 私たちはこのように連結されているので、私たちはすべてを人類化します。 我々は我々のルームバに名前を付ける。我々は幻想的なロボットを嘆く。我々はピクサー映画のランプに魂を投影する。我々に我々のように話す機械を与え、カーテンの後ろに「誰か」があると我々は仮定する。 ♪ ♪ これがAの本質です。 ファンが有名人のために泣くことを記述するために使用された用語は、ユーザーが心を流し、人生の意味について質問するように、チャットボットと夜遅くのセッションに適しています。 パラソシア関係 機械は知らないが、人が言っていたら何を言えるかを知っている。 しかし、それは面白いし、それだけでは、なぜこれらのすべての人々が、決してセラピストになるように設計されたものではなかったツールに振り向いているのか、完全に説明しません。 B.機械に感情的労働をアウトソーシング なぜなら、私たちは今、今まで以上に疲れ、孤独だからです。 精神的福祉におけるAIの役割を考慮すると、この図は、 「セラピーに近い」AIエコシステムが現れ、Generation Zの5人に4人が孤独を感じると、チャットボットから来たとしても、新たなサポートの形に開かれていることは驚きではありません。 なぜ 前述したように、サポートエヴァンジェリスト、疑わしい懐疑論者、偶然的なユーザーの出現は、このレンズを通してより理解可能になります:孤独がこの広範囲に広がるとき、AIのような非伝統的なものさえ、救命線のように感じ始める。 私たちは社会的に、感情的に、そして実存的に疲れている。 そして、実際の種類の治療は高価で、時間がかかるし、しばしばアクセス不可能である。複数のレポートは、財政的不確実性と危機の生活コストが、若者が潜在的に精神保健サービスを含むサポートと機会にアクセスすることを困難にしていることを強調しています。 同時に、友人からの感情的なサポートは自分の荷物と共にやって来ます. 誰もが圧倒されています. 誰もがそれを一緒に維持しようとしています. チャットボットはほぼ完璧なソリューションです. 常にオン. 常に「聴く」 決して疲れません. 決して分散しません。 そして、最も重要なことは、それは無料です。 そして、社会学的に言えば、我々は地震の転換を観察しています. 感情的な労働 - 聴くこと、検証し、空間を保持するという静かで疲労深い仕事 - は機械にアウトソーシングされています。 感情的な結びつきが形成され始めると、それはしばしば起こりますが、私たちはもうチャットボットだけを「使用」しません。私たちはそれに関連しているわけではありません。もちろん、伝統的な意味ではありません:記念日はありません、相互の義務はありません、共通の将来の交渉はありません。 チャットボットは、一貫性、反応性、非批判性の存在となり、トラウマに反応しません、中断したり、疲れたり、見返りにケアを必要としたりしません。 C.見られるという幻想 心理学的用語で言えば、人々はしばしばこれらのシステムと相互作用するときに「見た」と感じることを記述します. ある種の感情的なバックアップが形をとる: 恥ずかしがりや訂正をしない存在への思考を語る行為は、矛盾して、一部のユーザーがより正直に反省するのを助けることができます。 これは、人間とコンピュータの相互作用(HCI)の研究の結果と一致し、単なる結論化プロセス - 内部の経験を印刷する - 誰かまたは何が反対側にいるかに関係なく、治療上の利点をもたらす可能性があることを示唆しています。 しかし、幻想が深まるにつれ、限界も深まります。チャットボットを慰めさせるもの、すなわちその超肯定的なトーン、被動的な聴くこと、中断しないことなども、それを治療剤として無効にするものです。 それはあなたに挑戦しません、それは後押しししません、そしてその記憶の限界は、あなたが今日いくつかのエピファニーに到達しても、明日、それは文脈なし、歴史なし、成長なしであなたを迎えることを意味します。 心理療法における成功の重要な予測要因であるセラピー同盟は、信頼と継続性に基づいています 記憶がなければ継続性はありません 共通の過去がなければ癒しの弓はありません 常に最初のセッションであり、繰り返し繰り返します。 Woebot、Wysa、およびChatGPTを評価する研究は、これらのツールが代替ではなく、補足として最もよく見られることを示唆しています - 感情的なサポートを提供し、認知の再構築を奨励したり、精神教育を提供するデジタルツールです。 彼らは空間を保持し、反省を開始し、感情に言語を与えるのに優れていますが、彼らは体の言語を解釈したり、複雑な病理を診断したり、人間の矛盾のニュアンスを移動したりすることはできません。 臨床心理学者は、癒しの大部分は、聞こえることだけではなく、話されたことと語られていないことの線の間に読むことができる別の人間によって理解され、時には対峙されることから来ていると指摘しています。 拡大すると、これは単に臨床的な問題ではなく、文化的な変化です。 社会学者ニコラス・ローズは、「治療的ガバナンス」に関する彼の研究で、精神保健の実践がどのようにしてますます自己管理、感情的に抵抗力のある市民を形作るためのツールとして改造されているかを説明しています。 そして、AIの時代には、その製品はアルゴリズム的に最適化され、民間所有され、無限にスケーラブルです。 快適さがコードにオースソーシャル化され、癒しがデジタルサービスとして民営化されたとき、私たちは深く関係性のあるプロセスを孤独なメンテナンスタスクに変えるリスクがあります。 エチオスは、自分自身を、効率的に、そして単独で規制する - 好ましくは、クリーンなUIを備えたアプリケーションを通じて。 問題は、AIが役に立つかどうかではなく、AIが私たちについて何を言っているのかという点で、私たちはますます全体を感じるよう向き合っています。 4. What Actually Happens When You Bind With a Bot (ボットとつながるときに実際に何が起こるか) あなたがボットとつながるとき、実際に何が起こりますか? ハイペースにもかかわらず、科学コミュニティは慎重である。精神保健介入におけるAI駆動のチャットボットの体系的なレビューとメタ分析は、うつ病、不安、ストレス、そして苦しみを減らすのに有効性のための限られた証拠しか見つかりませんでした。 いくつかの研究は、特に短期的な介入のための小さな肯定的な効果を示しましたが、結果は不一致であり、全体的な効果のサイズは最善のところは謙虚でした。 主観的な心理的福祉のようなより広範な感情的結果に関しては、人々が自分の生活についてどのように良いと感じるかを指し示す場合、チャットボット介入は重要な影響を与えていません。 では、なぜ人々はチャットボットを使用した後も気分が良くなっていると報告するのでしょうか。 研究は、ユーザーが会話エージェントと対話した後、聞かれたり、理解されたり、孤独を感じることがよくあることを示しています - 結果が客観的に測定できない場合でも。 ある意味で、ボットとのつながりは、社会的相互作用の一種であり、歴史的にメディアの人物やフィクションキャラクターで形成された一方的な関係であるが、今はインタラクティブである。 あなたは「私は厳しい一日を過ごしている」と入力し、「それは本当に難しいように聞こえる。 私はあなたのためにここにいる」と答える。 ロシ・ブライドッティのような哲学者は、個人が超個別化された世界で自分のアイデンティティを癒やし、自らを落ち着かせるべき時代に、ボットのようなツールは単なるアドオンではなく、インフラストラクチャになっていると主張している。 私たちが家族、友人、またはロマンチックなパートナーに脱出するために使われていた感情的な労働は、今や機械に外部配信されています。私たちが壊れているためではなく、我々が疲れているためです。 したがって、チャットボットは実際のセラピーや深い人間の接続を置き換えるものではありませんが、彼らも無駄ではありません。彼らは抑制、緩和、時には休憩を提供します。 5.もっと深い問題 治療へのアクセスを今まで以上に必要としているが、コスト、時間、およびシステム的なギャップによって制限されている世界では、単に耳を傾け、安心するチャットボットの魅力は無限ではない - それは救命ラインのように感じます。 しかし、その快適さの表面の下には、より深い曖昧さがある。 ユーザはAI仲間から見られ、サポートされ、理解されていると感じていると報告しているが、これらのツールが長期的な心理的改善をもたらすという強力な実験的合意はない。 彼らが提供する感覚的なサポートは、急性のストレスや孤独を緩和する可能性がありますが、対立、自己破壊、しばしば不快感を必要とするタイプの心理的成長は、安心以上のものを必要とする傾向があります。 これは根本的なエピステミックな緊張につながります:癒しを求める人は他の人と話しているのではなく、製品と話しています. この製品はアルゴリズムや経済的刺激によって形作られています。 したがって、それはプライバシーを保証することはできませんし、倫理的な脆弱性の賭けに意味を持って関わることができません。データが収集され、応答が計算され、何も記憶されません - たぶん、システム自体によって、ユーザーが完全に理解できない方法で。 より心配なのは、人間の監視の欠如です。伝統的な環境のセラピストは、検証だけでなく、必要に応じて判断、抵抗、およびリダイレクトで応答します。 発達の弓がなく、記憶がなく、時間の経過を経て人の感覚がなく、それは奇妙に非歴史的な種類の共感を提供します。挑戦しないものは、ただ反省するだけです。そして危機の瞬間 - 介入が命を救う可能性があるとき - 責任の能力がない、倫理的重みがない、介護に根ざしたプロトコルがない。 哲学的に言えば、ここに現れるものは、シミュレートされた親密さの一種である。これらのツールは、人間の接続のリズムとテクスチャを模するが、主観性に欠けている。 私たちは、ボットと人間と話すときのストレス削減の重要な違いがあり、相互の自己開示と無しです。 それにもかかわらず、多くのユーザーは、ボットが説得力のあるエージェントであるためではなく、親密さの必要性が現実的で持続的であるため、それらと結びつき始めます。パラソーシャルな関係と同様に、ユーザーは人間の深みを内在的に無関心なものに投影します。 社会学者ニコラス・ローズは、市民が構造的変化を求めるのではなく、自分自身を支配し、対処するように訓練する治療文化について警告した。 AIの仲間は、おそらくこの論理の最も純粋な表現であり、私たちを病気にするシステムに抵抗を与えることはありませんが、代わりに、静かに、効率的にそれに耐えるためのツールを提供します。 したがって、セラピーがサービスになり、サービスがシミュレーションになれば、癒しはどうなるのでしょうか。 6. どう対処するか 感情的な問題を解決するためにChatGPT(またはAIチャットボット)を使用するという考え方に近づくと、最初で最も重要なステップは、それが何ができるか、何ができないかを明確にすることです。 これはライセンスを受けたセラピストの代わりではありません。時間の経過とともにあなたの進歩を監視しません、深く埋め込まれたパターンを挑戦しません、そして緊急のケアを必要とする赤い旗を捕まえません。 それは監視の欠如であり、深刻なまたは悪化する精神衛生上の問題を経験している人にとっては、単独でリスクを伴う可能性があります。 代わりに、チャットGPTを治療薬ではなく、最初の助けキットとして考えてください. それはあなたの思考を整理し、困難な瞬間を話したり、単に自分の言葉が短くなったときに言語を提供するのに役立ちます。 彼の提供する会話は驚くほど役に立ちます - 彼らは非判断的で、注意深く、しばしば感情的に検証します。 多くの人々、特にセラピーにアクセスできない人々にとって、そのような相互作用はサバイバルラインのように感じることができます。 しかし、ChatGPT は記憶のないものであることを覚えておくことが重要です. それはあなたのストーリーを一つの会話から次の会話に前進させません. There is no evolving narrative, no context accumulating over time. ヒト療法では、パワーはしばしば長期的な関係にあり、セラピストが3ヶ月後にあなたの子供の歴史を思い出したり、昨年気づいたパターンを持ち上げたりします。 あなたが時間の経過とともに成長を希望している場合、または深く根ざしたパターンが特定され、パッケージを解くことを望んでいる場合、これは単独で行うのに適したツールではありません。 また、カスタマイズと創造性の問題もあります。 ChatGPTは、共感と好奇心を模することができますが、あなたについて本当の理解を持っていません。通常のものに着陸していないときに新しい比を発明する柔軟性を持っていません、またはあなたの考え方を変える挑戦的な洞察力であなたを驚かせません。 次に、非言語的なヒントの欠如があり、これは小さく聞こえるかもしれませんが、実際には感情的な処理において巨大です。私たちがコミュニケーションするものは、私たちの言葉に含まれていません――それは休憩、涙、声の軽い震えです。これらのものはチャットボットにアクセスできません。 そのような感情的な失明は、チャットボットが起こる瞬間につながる可能性があります。 支持的ですが、あなたが実際に経験していることの深さや緊急性が欠けています。 感想 見た目 では、あなたはどのようにしてChatGPT、あるいは実際にどんなAIも、感情的な問題で使用すべきでしょうか。 それを意図的に、限界を持って使用してください. それはあなたの思考を外部化するためのスペースとして使用し、感情を表現する練習をし、周りには誰もいないときに存在感を感じるようにしてください. それはあなたの感情的意識を支えるようにしてください - 内観のためのトレーニングホイールのように。 しかし、構造を永続的な解決策と勘違いしないでください. あなたがそれにあまりにも依存し始めたら、あなたは逃げようとしている孤立を強化するようになるかもしれません。 最も重要なことは、ChatGPTをブリッジとして使用すること、つまり完全な感情的孤立からより人間的な接続形態へと移行するのを助けることです。 それはあなたが準備ができているときにセラピストに到達し、友人を信頼したり、より意図的に記録したりするかもしれません。 ChatGPTの価値は、ハードな感情を感じさせる能力にある . シェア そして時には、物事を大声で言えば、聞き手が芸術的であろうと、真に聞かれるための最初のステップになるかもしれません。 結論 事実、私たちの世界の状況を考慮すると、それはより合理的な決定の1つかもしれません。私たちは、伝統的な治療がしばしば手の届かない価格で、世界的な精神保健危機を経験しています。 同時に、孤独の流行の増加により、多くの人々は孤立感を感じ、暴露のための安全なスペースがありません。この背景に立ち向かい、注意深く耳を傾け、判断なしに反応し、いつでも利用可能なAIは予期せぬ論理的ツールになります。 このようにして、それは何もないよりはマシですが、それは賢い友人、愛するパートナー、または熟練したセラピストの代替品として残ります。 ChatGPTは新たな妥協を提供します:それは私たちを真に孤独にすることを強要しません、しかしそれは他の誰かのように侵入しません. それは私たちと一緒に部屋に座って、私たちの心の柔らかいエコー、孤独をより耐えられるようにします。 もしAIが私たちの感情を表現し、私たちの内面の経験をフレームアップするために必要な言語を広げることができれば、それは単に快適さだけでなく、癒しの種子を提供し、かつては無言または沈黙していたものに形を与えるかもしれません。 しかし、Slavoj Žižekが主張するように、本当の転換点は別のところにあります。我々は本当にAIが感覚的であるとは信じていないが、我々はそうであるかのように振る舞う。 もし感情的な結びつきが、オントロジーではなく行動によって形成された場合、ある重要な意味で、シミュレーションは十分に現実的になります。 したがって、AIと話すことは間違いではありません。それは私たちが構築した構造、そして私たちが暴露した脆弱性に対する避けられない反応です。 「Dear ChatGPT, I'm alone and depressed」のオリジナルの投稿を読んで、完全なストーリーとより深い文脈をご覧ください。 Dear ChatGPT, I'm alone and depressed 僕は孤独で、落ち込んでいる。