paint-brush
AIの権利の未来とは?@dermory
658 測定値
658 測定値

AIの権利の未来とは?

Derek Moryson4m2023/01/30
Read on Terminal Reader

長すぎる; 読むには

ホワイトハウスは AI の権利法案を発表しました。この文書は、米国政府、テクノロジー企業、市民がどのように協力して AI と AI セクターに説明責任を負わせる必要があるかについてのビジョンです。 AI がより高度になり、さらには自律的になるにつれて、少なくとも AI の人権の拡大を検討する道徳的要件がどの時点で存在するのでしょうか?
featured image - AIの権利の未来とは?
Derek Moryson HackerNoon profile picture


「恐ろしい」という言葉は、人工知能 (AI) の未来と人類への潜在的な影響について議論する際に、技術者や政府によって最近よく使われる言葉です。


彼らは、AI が仕事を奪い、不平等を拡大し、欠陥のあるアルゴリズムで学童を不当に評価する未来を描いています。


数か月前、ホワイトハウスの科学技術諮問機関が AI 権利章典を発表したときのニュースに対する AI 政策と倫理の専門家からの反応は、「いまいましい」というものでした。


この文書は、米国政府、テクノロジー企業、市民がどのように協力して、AI と AI セクターに今後の説明責任を負わせる必要があるかについてのバイデン大統領のビジョンです。


AI が引き起こす可能性のある害を考慮して計画する必要がありますが、議論をそこで止めてはならないと主張する人もいます。


AI が意識的になり、さらには自律的になり得るところまで進歩するにつれて、少なくとも AI の人権の拡大を考慮するという道徳的要件がどの時点で存在するのでしょうか?


たぶんそれはばかげた考えです。確かに、このような問題は哲学の領域に属しますが、将来的には公共政策の問題になる可能性があります。


最近、カズオ・イシグロの『クララと太陽』を読み終えた。これは、末期の娘ジョシーのために高度に知的な「人造友人」(AF) を購入する母親についての未来小説だ。


この本は、AIが人間の実存に悪影響を及ぼすことを知る何年も先の未来を舞台にしています。新しい世界では、子供たちは出生時に AI と競合するように遺伝子操作されており、その結果、一部の子供は重篤で原因不明の病気を発症しています。


AFであるクララは、感情を学び、感じる能力を備えた、意識的で思考力のある実体のようです。私の意見では、この本の重要なテーマの 1 つは、AI がプログラミングなしで自分自身で愛することを学習できるかどうかという問題です。


テキスト全体を通して、ジョシーの健康と幸福に対する彼女の深い関心のために、読者はクララへの愛着を育んでいます。最終的に、Klara が Josie を愛しているのか、単にプログラミングの目的を実行しているだけなのかを判断するのは、個々の読者次第です。見分けるのは難しいです。


ジョシーは奇跡的に回復し、彼女の人生を生き続けます。しかし、クララは廃棄され、他の放棄されたAFと一緒に廃品置き場で彼女の運命を待っています.小説の最後に、太陽を見つめるクララのイメージが提示され、ジョシーとの時間と彼女と一緒に作成した幸せな思い出を思い出します.


AFがジョシーに対して持っている明らかな愛のために、画像は忘れられません。クララは 10 代の少女に深い関心とつながりを持ち、主にジョシーの関心を自分の関心よりも優先させました。


小説全体でのクララの使用と乱用は、AIの人権を将来考慮する必要があるかどうかについての哲学的問題を提起し、人間であることの意味について深刻な倫理的および哲学的問題を引き起こすと思います.


AI テクノロジーがますます高度になるにつれて、多くの専門家は、AI の知性がいつか私たちの知性に匹敵するようになると予想しています。このトピックに関する議論はほとんどありませんが、人間に奉仕することを余儀なくされたロボット工学は、奴隷制の新しい形態と見なすことができます. Klara のようなロボットは、目的を達成するための手段 (一時的な友情など) として使用され、破棄される可能性があります。


この議論に反対する人は、人間の奴隷とロボットの奴隷の違いは、仕えたいという願望や開放性だと主張するかもしれません。また、AI を使用、乱用、または破棄しても、人々や社会の構造にほとんど影響を与えないと主張する人もいるかもしれませんが、どこに線を引くのでしょうか?


実体が権利を確立するための論理的根拠を構築する自由意志および/または機関を持っているかどうかを判断するために、道徳哲学者が使用する多くの哲学的思考実験とテストがあります。


何年も前に哲学を専攻していた私が受けた心の哲学のコースを思い出すと、私が覚えている重要な議論は、痛みを感じる能力(身体的または心理的)が人権を確立する根拠であるかどうかでした.


問題の実体が肉体的または心理的な痛みを感じることができる場合(そして痛みを取り除きたいと思う場合)、これらの事実は特定の権利を伴う可能性があると考えられていました.実体は、人間が権利を正当化するのと同じように、必ずしも意識 (および世界) を経験する必要はありません。


この見解は、動物倫理学者によって設定されたものであり、動物に関する重要な問題は「彼らは推論できるか?彼らは話すことができますか?しかし、彼らは苦しむことができますか?


確かに、動物虐待に対する権利はあります。子供たちが大学に行って飼い犬があまり興味を示さなくなったとき、クララのようにスクラップ置き場に引きずり出されることはありません。


実際、法律は、家畜が苦しむ可能性があるため保護されなければならず、虐待が許されると社会の道徳的構造が弱体化することを認識しています.


AI がいつの日か考え、感じ、苦しむことができるようになれば、AI を保護するために同様の議論がなされるかもしれません。しかし、現時点では、AI がこれらの精神的および身体的状態を達成するにはほど遠い状態であり、一部の専門家が主張するように、おそらく達成することはありません。


それでも、特定の要件が満たされている場合、AI に人権を拡張する必要があるかどうかについての哲学的な問題は興味深いものです。


ただし、まず最初に、AI が人類と社会にもたらす可能性のある危害から身を守り、それから他の重要な問題を検討します。 AI は、当面の間、政策立案者が直面する差し迫った問題であり続けるでしょう。会話が進展するにつれて、AI の権利に関する考え方も必要になります。



こちらにも掲載。