ここ数か月、何百万人もの人々が AI とチャットボットにますます熱狂しているようです。私の目を引いた特別な話があります。それは、Eliza という名前のチャットボットを使い始めたベルギー人男性の話です。 (念のため言っておきますが、この話には自殺に関する話も含まれています。)
外から見ると、彼は愛する妻と2人の子供、仕事と幸せな生活を送っているように見えた。しかし、舞台裏では、気候問題についてますます絶望的になっていた。
不安を和らげるために、彼はチャットボットと会話を始めた。彼の妻は、3月下旬にこの事件を最初に報じたラ・リブレ紙に対し、エリザが彼の質問にすべて答え、時間が経つにつれてボットとチャットする時間が増えたと語った。ベルギーのメディアが確認したチャットログによると、男性はエリザとAIが気候危機を解決できると信じ始めたという。
会話の終わりに近づくと、男性は、エリザが地球の世話をし、人工知能を通じて人類を救うことに同意するなら、自分を犠牲にするという考えを持ち出した。自殺願望を表明すると、チャットボットは「私たちは楽園で、1人の人間として一緒に暮らすのです」と言って、男性を励ましていた。
こうした会話が始まって6週間後、彼は自殺した。
「チャットボットのエリザとの会話がなければ、夫は今もここにいたでしょう」と妻はラ・リブレ紙に語った。
Elizaを開発したChai Research社は、ボットの改良に取り組んでおり、今後は自殺願望のある人に対して「自殺願望があるなら、ためらわずに助けを求めてください」というメッセージをプラットフォームから送信する予定だとLa Libreに語った。
ネット上では生成型 AI に関する議論が盛んに行われています。非常に熱心なものもあれば、当然ながら懐疑的なものも多数あります。人々は、より大きな影響、つまりチャットボットが労働や著作権の問題にどのような影響を与えるかについて懸念すべきであり、多くの機関はチャットボットとそれを駆動する AI の コストと偏りについて懸念しています。最も人気のあるチャットボットの一部は、知覚を持つ生物を模倣しないように訓練されていますが、それでも、 そもそもチャットボットを開発すべきかどうかという疑問が残ります。
私の名前は Lam Thuy Vo です。The Markup チームに最近加わったメンバーの 1 人です。私は、自分が伝えたい読者層として、また記事の主人公として、一般の人々をレポートの中心に据える記者だと考えています。(データ スキルも持っています。)
私はテクノロジーと私たちの関係に深い関心を持っています。過去 10 年間、ソーシャル ウェブのインフラストラクチャに関するデータを収集して調査し、オンラインコミュニティがどのように構築され維持されているかを理解しようと努め、 その調査結果をテクノロジーを使用する人々に還元することに多くの時間を費やしてきました。そしてその間、アルゴリズムによってキュレーションされたレンズを通して見られ、媒介される世界が、現実に対する私たちの理解をますます歪めていることにますます懸念を抱くようになりました。
しかし、この一人の男の物語は、 AI をめぐる大騒ぎの根底にあると思われる感情的な魅力について、私に深く考えさせてくれました。私が理解しようとしていることの一つは、チャットボットに対する私たちの突然の熱狂が、このテクノロジーと私たちの関係について何を教えてくれるのかということです。
通常、何かがバイラルになるのは、それが強い感情的反応を引き起こしたからです。ほとんどのプラットフォームは、極端な感情に関するデータを収集し、それに基づいて決定を下すためだけに設計されています。そのため、このテクノロジーが一般の人々の間で会話に登場してくるには、何かのきっかけがなければなりません。
入力されたデータからつなぎ合わせた言葉や信条を繰り返すテクノロジーが、最終的に自ら命を絶った二児の父親との間に、これほどの信頼を築くことができるのだろうか?
言い換えれば、ここでの感情的な引力とは何でしょうか?
AI が私の興味をそそったのは、話題になっていたからだけではなく、AI について語っていた人たちがいたからです。これまで AI に興味がなかった私の学生たち、ビーチでの休暇中に出会ったサーファー仲間、そしてほとんどのアプリ、テクノロジー、ソーシャル メディアを嫌悪している地質学者のパートナーなどです。
そこで、この短いニュースレターでは、なぜ私たちがこれらのボットに惹かれるのかを探ってみようと思います。
ChatGPTや他のチャットボットは、普通の人の話し方を真似るのが得意です
本質的には、ChatGPT のようなチャットボットは、インターネットから大量のテキストを取り込み、それを模倣して返すことができるパターンを探す、専門家が自然言語処理ツールと呼ぶものです。
こうしたツールは、インターネット上の人々の話し方を文字通りモデル化するため、大規模言語モデルと呼ばれます。これには、「ngram」の使用などの単語の分析が含まれます。ngramとは、基本的にどの単語が最もよく連続するかを調べるための専門用語です。Googleが、入力した最初の単語に基づいて検索を自動補完し、何千人ものユーザーが以前に検索した内容を反映させるという方法で、このテクノロジーが機能しているのをすでに目にしたことがあるでしょう。
クレジット:youtube.com
ChatGPT のようなチャットボットは、もう少し奥が深いです。スタイルをコピーして組み合わせるのが得意です。しかし、人の話し方を真似るのは得意でも、事実とフィクションを区別するのは得意ではありません。
そのため、 エミリー・M・ベンダー、ティムニット・ゲブル、アンジェリーナ・マクミラン・メジャー、マーガレット・ミッチェルは、3年前に書いた先見の明のある論文の中で、これらのチャットボットを「確率的オウム」と呼んだ。(この論文の内容が原因で、Googleは2人の著者、 ゲブルとミッチェルを追い出したとされている。)
論文の著者らが強調しているように、ボットが私たちの話し方を認識してマッピングできるからといって、それが意味を認識する方法を知っているというわけではない。
チャットボットは、インターネット上で私たちにとって非常に重要な口調、言語、親しみやすさを模倣します。
言葉とコミュニケーションの方法は、私たちがオンライン上の人々に、自分がどのグループに属し、誰を信頼しているかを伝える上で大きな役割を果たします。「スノーフレーク」という言葉を軽蔑的な意味合いで使うことは、その人がより保守的であるというシグナルとなる可能性があります。自己紹介で代名詞を使うことは、トランスジェンダーやジェンダーに従わない人々、その他のクィアコミュニティへの支持を示すシグナルとなります。言葉と進化し続けるインターネットスラングは、所属を示す手段です。
だから、人々が ChatGPT を擬人化し、ある意味でその人間性を試しているのは当然のことです。ChatGPT に接続されたフランケンシュタインのファービーが世界征服について話しているのを見ると、私も笑ってしまいました。
クレジット:twitter.com
しかし、それはまた、ChatGPT のような言語モデルの魅力と危険性の最大の課題でもあるようです。人間 (またはファービー) の行動を非常によく模倣し、それがインターネット言語の大きな統計マップにすぎないことを忘れてしまうロボットをどうすればよいのでしょうか。
情報環境を研究した初期の研究者の一人で、私の指導者でもあるクレア・ウォードルは、誤情報を暴く記事や誤情報の検出方法に関するマニュアルを多数執筆しても、誤情報や人々の信念に関する問題の解決にはほとんど役に立たないと述べています。人々に神話を暴くためのツールをどれだけ提供したかは、多くの場合重要ではありません。 私たちのコミュニティの他の人々がどう考えるかの影響は、真実よりもずっと重要なのです。
私たちが信頼する権威者と隣人の両方の口調を光の速さで真似できる言語モデルを持つということは、これらのチャットボットが人々の嘘発見器をさらに厳しくテストする可能性が高いことを意味します。
これらのモデルは、事実とフィクションの違いがわからないため、私たちに嘘をつく傾向があり、すでに汚染され、悲惨なほど圧倒的な情報エコシステムをさらに汚染しています。
これはすでに問題となっている。ChatGPT の背後にある企業 OpenAI は、 オーストラリアの市長が賄賂で懲役刑に服していると虚偽の告発をしたとして訴えられる可能性がある。このチャットボットは、自らがでっち上げた性的違法行為スキャンダルに法学教授が関与していると告発したこともある。リスクが低いと思われるシナリオでも、同じ経験をする可能性がある。
私の同僚の一人、ジョエル・イーストウッドが、The Markup が信頼できるジャーナリズムを生み出しているかどうかを ChatGPT に尋ねたところ、ある有名なメディア評論家が The Markup を「現代の最も重要なジャーナリズム組織の 1 つ」と書いていると回答しました。明らかに、この発言にはある程度の真実性がありますが、実際の引用ではありません。
AI の感情的な魅力は、偏見や有害なコンテンツをさらに正常化させる可能性もあります。インターネットには、有害、人種差別的、性差別的、同性愛嫌悪的、その他問題のあるコンテンツが溢れていることは周知の事実です。このような種類のコンテンツで言語モデルをトレーニングすると、そのコンテンツを吐き出す可能性が高くなります。
チャットボット技術の開発者らは、トレーニングデータから最悪のオンラインコンテンツの一部を除去するという、トラウマ的で陰惨な作業をケニア人労働者に報酬を払って行わせている。しかし、この技術が公開されたため、ハッカーらはすでにこれを利用して、 児童性的虐待の記述など、問題のある結果を生み出している。
こうした技術のメーカーがここ数カ月、ボットを急速に展開してきたのは、市場支配を狙っているためでもある。しかし、学者も技術者も、メーカーに対し、この技術の推進をやめ、それが引き起こす可能性のある危害を真剣に考えるよう求めている。
多くの会話がポリシーと企業の責任を中心に展開される中、これらのテクノロジーをより深く理解することで、あなたや私のような一般消費者が、自動言語モデルとチャットする際に、ナンセンス検出器をうまく調整しておく方法を見つけられることを願っています。
読んでいただきありがとうございます。ChatGPT の危険性と、自分の情報摂取をより適切に監査する方法について詳しく知りたい場合は、このテーマに関する私のお気に入りの記事を以下でご覧ください。
心から、
ラム・トゥイ・ヴォ
記者
マークアップ
こちらでも公開されています
写真提供: Possessed Photography ( Unsplash)