ChatGPT やその他のチャットボットによって、人工知能 (AI) ツールに対する私たちの理解と相互作用が再考されたことは、もはやニュースではありません。昨年 11 月に ChatGPT がリリースされ、インターネットが熱狂したことで、多くの人が初めて AI を知るようになりました。
OpenAI のチャットボットに関連する興奮を軽視することなく、私たちは毎日 AI ツールと運用にさらされています。たとえば、Google の検索エンジンと地図は AI に依存してクエリを処理し、数秒で応答を生成します。
ChatGPTなどのAIツールでできることの可能性は、これまでにない爽快感を生み出しています。これらのツールが専門家専用のコンテンツや技術文書を作成する例があります。
ChatGPT は、コードの記述、マルウェアの開発、アイデアの生成、言語の翻訳などに使用されています。 2022 年、Midjourney の使用は
これらのツールの機能は、終末への恐怖ももたらします。の懸念がある
2023 年 1 月 13 日に提出された訴訟では、Stability AI、Midjourney、および DeviantArt が
AIは未来です。私たちは、善を受け入れ、悪の影響を最小限に抑えるための対策を講じることを学ばなければなりません。しかし、AIが現代社会を混乱させ続けることは間違いありません。
による最近の調査
AI グローバル市場の収益は、2022 年の 1,360 億ドルから
AI の利点には、作業の自動化 (30%)、コスト削減 (54%)、IT パフォーマンス (53%)、顧客体験の向上 (48%) が含まれます。
ChatGPT やその他のツールの多くの驚異を考えると、AI ツールは魔法と科学の融合であると考えるのは簡単です。幸いなことに、そうではありません。
AI は、パターンの認識、経験からの学習、問題の解決、効果的な意思決定など、人間の知性を必要とするタスクを実行するように設計された、実験室で生成されたデータベースの数学モデルです。
AI の開発は、コンピューター サイエンス、神経科学、心理学などの分野の進歩によって推進されています。これは、人間の知性を機械でモデル化し、シミュレートできるという考えに基づいています。
AI で使用される主要なテクノロジと手法には、機械学習、自然言語処理、ロボット工学などがあります。
「ガベージ イン、ガベージ アウト」の概念は、AI に非常に当てはまります。 AI システムの開発と依存度が高まるにつれて、これらのシステムにバイアスが生じる可能性があることも認識しておく必要があります。
問題として AI 自体を指摘するのは簡単ですが、本当の懸念は、これらのシステムを開発およびトレーニングする人々の人間の偏見です。 AI システムは、開発者が望むとおりに動作します。
AI研究者の69%が信じている
AI における人間の偏見は、AI のトレーニングに使用されるデータからシステム自体の意思決定プロセスまで、さまざまな形で現れる可能性があります。
たとえば、AI システムが特定の 1 つのグループの人々で不均衡に構成されているデータセットでトレーニングされている場合、他のグループを正確に理解して決定を下すことができない可能性があります。
同様に、AI システムが特定の仮定やステレオタイプに基づいて意思決定を行うように設計されている場合、社会に有害な偏見を永続させる可能性があります。
AI の最大の問題の 1 つは、AI がトレーニングされるデータが、そのデータを収集してキュレートする人々のバイアスを反映している可能性があるという事実です。
たとえば、顔認識システムのトレーニングに使用されるデータセットの大部分が肌の色が薄い人の画像で構成されている場合、肌の色が濃い人の顔を認識しようとすると、システムのパフォーマンスが低下する可能性があります。
これは、次の場合のように、現実世界に影響を与える可能性がある一種のバイアスです。
しかし、バイアスがかかる可能性があるのはデータだけではありません。これらのシステムを作成してトレーニングする人々も、無意識の偏見を通じてバイアスを導入する可能性があります。
たとえば、
組織の 74% が AI の信頼性と責任性を確保するための措置を講じていないため、社会的に責任のある AI ツールを作成する緊急性は共同責任です。バイアスの可能性を特定し、それを軽減するために積極的に取り組むことから始めます。
これは、AI に取り組む人々のチームを多様化し、幅広い視点と経験が代表されるようにすることを意味します。
AI のトレーニングに使用されるデータが多様であり、対象となる人口を代表するものであることを確認することが重要です。これには、データを慎重に選択してキュレーションし、既存の偏見やステレオタイプを永続させないようにすることが含まれます。
さらに、データがさまざまなグループの人々に与える潜在的な影響を考慮し、さまざまな視点から情報を入手して、データが包括的かつ公正であることを確認することが重要です。
AI システムの設計は透明性があり、説明可能でなければなりません。これは、潜在的なバイアスや問題を特定して対処できるように、AI システムの意思決定プロセスが明確で、人間が簡単に理解できるようにする必要があることを意味します。
AI システムのパフォーマンスを定期的に評価および監視して、意図したとおりに機能し、有害なバイアスを永続させないようにすることが不可欠です。これには、AI システムのトレーニングに使用されるデータの定期的な分析や、AI モデルの決定とアクションが含まれます。
政府は、成長と開発を阻害することなく、社会的に責任のある AI の開発と使用を強制する法律と規制を作成する必要があります。
AI は、私たちの生活、仕事、社交の仕方に革命を起こす可能性を秘めています。しかし、AI システムの開発と依存を続ける中で、バイアスの可能性にも対処することが重要です。本当の懸念は AI そのものではなく、AI を開発し訓練する人々の偏見であることを認識しなければなりません。
この問題を認識し、それを軽減するための措置を講じることで、AI の未来がすべての人に利益をもたらすものになるようにすることができます。
目標は、社会のために AI を開発することです。このような目標を達成するには、政府、開発者、およびユーザーの連帯責任が必要になります。政府は、AI システムが社会的に責任ある方法で開発されることを保証する規制を実施する必要があります。
開発者は、多様性、透明性、および説明責任を採用することにより、偏見を防ぐ必要があります。意図しない偏見や悪用を防ぐために、AI システムのパフォーマンスを定期的に評価および監視する必要があります。
一般市民は、AI の使用方法に責任があることも理解する必要があります。社会的に無責任な AI の使用は、すべての人に思いとどまらせる必要があります。