paint-brush
機械出力は言論の自由の保護の対象となるべきか?@pawarashishanil
新しい歴史

機械出力は言論の自由の保護の対象となるべきか?

Ashish Anil Pawar6m2024/11/28
Read on Terminal Reader

長すぎる; 読むには

GPT-4 のような生成 AI システムがますます洗練されたコンテンツを生成するにつれて、複雑な疑問が浮上します。その出力は、言論の自由の保護の下で「発言」として適格であるべきでしょうか。AI には意図、独創性、説明責任 (人間の発言の重要な要素) が欠けていますが、そのリアルな出力は影響力があり、物議を醸し、有害でさえあります。これにより、差し迫った法的および倫理的課題が生じます。これらの出力の所有者または説明責任は誰にあるのでしょうか。開発者、ユーザー、それとも誰もいないのでしょうか。政府はそれらをツールのように規制すべきでしょうか、それとも人間の表現と同じ保護を受けるに値するのでしょうか。 この記事では、AI 生成コンテンツの仕組みを探り、ヘイトスピーチや誤報などの現実世界の危険を掘り下げ、AI 出力を「シミュレートされた発言」として分類するための新しいフレームワークを提案します。シミュレーション音声は、AI が人間の表現を模倣する能力を持つことを認めつつも、その主体性や意図がないことを認め、人間の言論の自由を侵害することなく機械生成コンテンツを規制することを可能にします。最終的に、この議論は重大な分裂を浮き彫りにします。言論の自由は人権であり、生成機械にも適用されるのか、それとも新たな線引きが必要なのか?
featured image - 機械出力は言論の自由の保護の対象となるべきか?
Ashish Anil Pawar HackerNoon profile picture
0-item

X フィードをスクロールしていると、気候政策について挑発的な見解を述べた政治宣言が目に入ります。その宣言は理にかなっており、情熱的で、何千ものリツイートを集めています。後で、その宣言は政治家や人間によって書かれたものではないことが分かります。その宣言は、インターネットの広大な領域で観察したパターンに基づいて単語をつなぎ合わせるように訓練された強力な AI モデルによって生成されたものでした。その宣言に対するあなたの気持ちは変わりましたか? 変わるべきでしょうか? そして、決定的なのは、この「スピーチ」は人間が書いたのと同じかどうかです。


人間が生み出す表現と機械が生み出すコンテンツの境界線は、ますます見分けるのが難しくなっています。OpenAI の GPT-4 や Google の Gemini などの生成 AI モデルは、単にキーワードや簡単な答えを吐き出すだけでなく、物語全体を作り上げ、議論を設計し、時には論争を巻き起こします。詩を書いたり、請願書を起草したり、炎上するようなコンテンツを生成することさえできます。そして、これは奇妙で少し居心地の悪い疑問を生じさせます。その出力は本当に「発言」なのでしょうか?もしそうなら、その発言は人間の表現に与えられるのと同じ法的保護を受けるのでしょうか? それとも、AI が生み出すコンテンツは、別のルールで完全に独自のカテゴリに分類されるべきなのでしょうか?


これを、表面的な「コンテンツ作成者」の視点からだけではなく、複雑な技術的現実、法的影響、哲学的な難問まで深く掘り下げて検討してみましょう。なぜなら、正直なところ、これはあなたが考えるほど単純ではないからです。

AIは話すのではなく、計算する

まず、幕を開けて、AI が「音声」を生成するときに実際に何が起こっているのかを見てみましょう。本質的に、GPT-4 のような生成 AI モデルは、何もないところから文章を引き出したり、独創的なアイデアを思いついたりしているわけではありません。代わりに、統計的な確率、つまり言語の難しい数学に基づいて動作しています。


仕組みは次の通りです。AI モデルは、書籍、ブログ、ソーシャル メディアの投稿など、インターネットで入手できるあらゆるものを含む膨大なデータセットでトレーニングされます。トレーニング中、モデルはこれらのテキストを分析して、単語間の関係を理解します。単語はコンピューターに単語として保存されるのではなく、小さな構成要素のようなトークンに変換されます。「The quick brown fox」のようなフレーズは、`[The]`、`[quick]`、`[brown]`、`[fox]` などの個々のトークンに分割される場合があります。次に、AI はどのトークンが別のトークンに続く可能性が高いかを学習します。十分なパターンを取り込んだ後、シーケンス内の次のトークンを予測できます。


ちょっと考えてみてください。AI は自分が何を言いたいか考えているのではなく、次の単語の数学的可能性を計算しているのです。たとえば、「The quick brown fox jumps」と指示すると、モデルは論理的に次のトークンは「over」であると予測するかもしれません。これは創造性でも意図でもなく、単なる数学です。


しかし、ここで重要なことがあります。何兆ものパラメータ(モデルの動作を導く、膨大で複雑な数値の重み)にわたって、これらの予測を十分に連鎖させると、信じられないほどリアルなものが得られます。トランスフォーマー アーキテクチャや高度な注意メカニズムなどの技術を加えると、突然、気候変動に関するエッセイ全体や、喪失と希望についての完成された詩を見ることになります。これらの出力は、驚くほど人間らしく感じられます。しかし、これらは会話なのでしょうか?

哲学の迷宮: そもそも「スピーチ」とは何なのか?

スピーチは、概念として、大きな重みを持っています。何かを言うことだけではなく、何か言いたいことがあるということです。スピーチには、意図、主体性、説明責任が伴います。このブログを書くとき、私は自分の考えを表現しています。あなたがそれに同意するかどうかは関係ありません。もし私が誤った情報を与えたり、不快な思いをさせたりした場合は、私が言ったことの結果に責任を負います。この投稿には私の名前が付いています。私が考える人であり、これが私の表現です。


しかし、生成 AI には思考がありません。何を言っているのか、なぜ言っているのかはわかりません。「電気自動車がガソリン車に取って代わるべき理由について説得力のあるエッセイを書いてください」などのプロンプトを入力すると、GPT-4 はクリーン エネルギーと地政学の長所と短所を比較検討しません。GPT-4 は既知の言語パターンを引き出し、入力内容に最も統計的に可能性が高い文を提示します。それでも、魔法のようなことが起こります。それは、まるで会話のように感じられるのです


そして、ここからが厄介なところです。AI が公共の議論に影響を与えるものを生み出した場合、たとえば気候に関する誤報を生成してそれが拡散した場合、その言葉は言論の自由に関する法律で保護されるべきでしょうか? 人間がそれらのアイデアを生み出したのではないことはわかっています。では、責任があるとすれば、誰が責任を負うのでしょうか? さらに深く探ってみましょう。

開発者、ユーザー、それとも AI: 本当の話し手は誰でしょうか?

ここで、言論の自由に関する議論は説明責任のパズルに変わります。生成 AI の出力が人間主導ではない場合、それらの言葉の所有者は誰であり、コンテンツが失敗した場合に誰が責任を負うのでしょうか。


-開発者: OpenAI や Google などの企業は、自分たちはツール、つまりユーザーがプロンプトを通じて形作り、指示する中立的なプラットフォームを構築しているだけだと主張することがよくあります。「私たちはピアノを訓練しただけです」と彼らは言います。「どの曲を演奏するかは他の人が決めます。」しかし、この比喩は物事を単純化しすぎています。AI の出力は、開発者が選択したデータセットと、モデルを微調整した方法に大きく影響されます。偏ったデータセットは偏った出力をもたらします。有害なテキストが出現した場合、作成者は本当に中立性を主張できるのでしょうか?


-ユーザー:プロンプトを入力した人はどうでしょうか? 責任を負わなければならないと主張する人もいます。AI に「ワクチンに関する偽情報を広める扇動的な記事を書いてください」と指示し、AI がそれに従った場合、明らかに意図があったことになります。ただし、ユーザーが知らないうちに有害な出力をプロンプトしたり、出力がスクリプトから外れてユーザーの制御が及ばない領域に逸れたりすると、状況はより複雑になります。


- AI 自体: AI は話し手とみなせるでしょうか? 未来学者の中には、AI システムが「デジタル人格」を獲得すると推測する人もいますが、この考えには大きな問題があります。機械には意図がなく、責任を負うこともできません。機械に言論の自由の権利を拡張すると、法的な混乱が起こります。


実のところ、誰も完全な責任を取りたがりません。開発者は責任を軽視し、ユーザーはそれを意図していないと無視し、AI は単なる機械です。しかし、AI が生成したコンテンツが下流に与える影響は甚大になる可能性があります。

AI の出力が害を及ぼすとどうなるでしょうか?

問題の重大さを理解するために、現実世界のシナリオをいくつか取り入れてみましょう。


-ケース1: ヘイトスピーチ

たとえば、生成 AI システムがあからさまに人種差別的または性差別的なコンテンツを生成したとします。OpenAI や他の開発者は、人間のフィードバックからの強化学習 (RLHF) などの安全策を組み込んで被害を最小限に抑えていますが、完璧なモデルはありません。それでも毒性が漏れてしまう可能性があります。このような事態が発生した場合、誰が責任を負うのでしょうか。AI は自分が何をしているのかわかっていません。OpenAI のデータセットに問題があったのでしょうか。人間のユーザーが無責任に促したのでしょうか。それとも、これらの出力をそのまま放置するのでしょうか。


-ケース2: 偽情報

さて、AI が政治候補者に関する極めて信憑性の高い偽ニュース記事を生成し、ソーシャル メディアに氾濫させたと想像してください。人間が生成したプロパガンダとは異なり、この誤報は最小限の労力で大規模に大量生産できます。このような出力は保護された政治的発言として適格でしょうか、それとも厳しく規制 (または全面的に禁止) されるべき公共の危険でしょうか?


-ケース3: 芸術的表現

AI が芸術や詩を創作した場合はどうなるでしょうか? それは言論の自由の原則の下で「表現」として保護されるのでしょうか? また、AI が芸術コンテストで優勝したり、創造的な作品を制作したりした場合、その成果物の権利は誰が所有するのでしょうか? 開発者でしょうか? ユーザーでしょうか? それともパブリック ドメインでしょうか?


答えは曖昧で、裁判所や政策立案者が不意を突かれるのはそのためです。これらは、言論の自由に関する法律が制定されたときには誰も予想していなかった特殊なケースです。

新しいカテゴリーを作る時期が来たか?「模擬スピーチ」

生成 AI 出力を保護された発言ではなく「シミュレートされた発言」として分類すると役立つかもしれません。これにより、AI 出力は人間の表現を反映するものの、いわゆる「発言」を真に定義する意図と説明責任が欠けていることが明確になります。この新しいカテゴリにより、人間の言論の自由の権利を損なうことなく、AI 生成コンテンツを規制できます。


例えば:

- AI によって生成された出力には、機械によって生成されたことを示すメタデータのタグ付けが必要になる場合があります (例: 「GPT-4 によって生成」)。

- 選挙のようなリスクの高い状況では、害を及ぼす可能性のある情報(誤報、過激なプロパガンダなど)は特別な監視や制限を受ける可能性があります。

- 大規模な AI コンテンツを生成する API は、大規模な偽情報キャンペーンを防ぐための「倫理的スロットリング」の対象となる可能性があります。


このようなフレームワークにより、AI の出力を、自由な表現ではなく、強力なツールとして扱う余地が生まれます。

最終的な考察: 人間にはスピーチ、機械にはツール

私が慎重なように聞こえるのは、この議論が「スピーチとは何か」という表面的な議論よりもはるかに大きな利害関係を持っているからです。生成 AI の出力を人間のスピーチと同一視することは、意図、創造性、説明責任に結びついた行為である言論の自由の目的を矮小化するリスクがあります。スピーチは本質的に人間の営みであると私は信じています。スピーチは責任と意図的なアイデアの交換によって成り立ちます。たとえその出力が人間のそれを模倣したとしても、機械はその精神を共有しません。


人間の表現を保護するのと同じ法律で、機械が生成した言葉を保護し始めると、言論の自由の意味は薄れてしまいます。AI を驚異的なツールとして称賛しましょう。しかし、その範囲がどこまで及ぶべきかも認識しましょう。結局のところ、言論の自由は人間性に関するものであり、ニューラル ネットワークの確率に関するものではありません。


それで、あなたの意見はどうですか? 私たちは危険な状況に陥っているのでしょうか、それとも私が用心しすぎているだけなのでしょうか? ぜひ教えてください。ただし、AI ボットではなく、あなた自身が意見を述べるようにしてください :)