paint-brush
AI は問題ではなく、心配すべきは AI 開発者です@funsor
2,841 測定値
2,841 測定値

AI は問題ではなく、心配すべきは AI 開発者です

Funso Richard6m2023/01/27
Read on Terminal Reader

長すぎる; 読むには

AI は、私たちの生活、仕事、社交の仕方に革命を起こす可能性を秘めています。しかし、AI システムの開発と依存を続ける中で、バイアスの可能性にも対処することが重要です。真の懸念は AI そのものではなく、AI を開発し訓練する人々の偏見であることを認識する必要があります。この問題を認識し、それを軽減するための措置を講じることで、AI の未来がすべての人に利益をもたらすものになるようにすることができます。
featured image - AI は問題ではなく、心配すべきは AI 開発者です
Funso Richard HackerNoon profile picture

ChatGPT やその他のチャットボットによって、人工知能 (AI) ツールに対する私たちの理解と相互作用が再考されたことは、もはやニュースではありません。昨年 11 月に ChatGPT がリリースされ、インターネットが熱狂したことで、多くの人が初めて AI を知るようになりました。


OpenAI のチャットボットに関連する興奮を軽視することなく、私たちは毎日 AI ツールと運用にさらされています。たとえば、Google の検索エンジンと地図は AI に依存してクエリを処理し、数秒で応答を生成します。

AI は良いもの、悪いもの、そして避けられないもの

ChatGPTなどのAIツールでできることの可能性は、これまでにない爽快感を生み出しています。これらのツールが専門家専用のコンテンツや技術文書を作成する例があります。


ChatGPT は、コードの記述、マルウェアの開発、アイデアの生成、言語の翻訳などに使用されています。 2022 年、Midjourney の使用は1000% .


これらのツールの機能は、終末への恐怖ももたらします。の懸念がある大量失業 AIを利用した盗作と教育の悪党著作権訴訟偽情報 偽の研究抄録、 とサイバー犯罪の民主化.


2023 年 1 月 13 日に提出された訴訟では、Stability AI、Midjourney、および DeviantArt が違反している「何百万ものアーティストの権利」。


AIは未来です。私たちは、善を受け入れ、悪の影響を最小限に抑えるための対策を講じることを学ばなければなりません。しかし、AIが現代社会を混乱させ続けることは間違いありません。


による最近の調査スタティスタZ 世代 (29%)、X 世代 (28%)、ミレニアル世代 (27%) がジェネレーティブ AI ツールを使用していることを示しました。


AI グローバル市場の収益は、2022 年の 1,360 億ドルから1.5兆ドル2030年までに。 IBM 、企業の 35% がビジネスで AI を使用し、42% が AI を調査中であり、66% がサステナビリティの目標に対処するために AI を現在実行しているか、適用することを計画しています。


AI の利点には、作業の自動化 (30%)、コスト削減 (54%)、IT パフォーマンス (53%)、顧客体験の向上 (48%) が含まれます。


Jemastock による写真 - stock.adobe.com


AIのメイキング

ChatGPT やその他のツールの多くの驚異を考えると、AI ツールは魔法と科学の融合であると考えるのは簡単です。幸いなことに、そうではありません。


AI は、パターンの認識、経験からの学習、問題の解決、効果的な意思決定など、人間の知性を必要とするタスクを実行するように設計された、実験室で生成されたデータベースの数学モデルです。


AI の開発は、コンピューター サイエンス、神経科学、心理学などの分野の進歩によって推進されています。これは、人間の知性を機械でモデル化し、シミュレートできるという考えに基づいています。


AI で使用される主要なテクノロジと手法には、機械学習、自然言語処理、ロボット工学などがあります。

AI開発に対する人間の偏見の影響

「ガベージ イン、ガベージ アウト」の概念は、AI に非常に当てはまります。 AI システムの開発と依存度が高まるにつれて、これらのシステムにバイアスが生じる可能性があることも認識しておく必要があります。


問題として AI 自体を指摘するのは簡単ですが、本当の懸念は、これらのシステムを開発およびトレーニングする人々の人間の偏見です。 AI システムは、開発者が望むとおりに動作します。


AI研究者の69%が信じているAI とその開発は安全上の懸念事項です安全性をより重視する必要があります。


AI における人間の偏見は、AI のトレーニングに使用されるデータからシステム自体の意思決定プロセスまで、さまざまな形で現れる可能性があります。


たとえば、AI システムが特定の 1 つのグループの人々で不均衡に構成されているデータセットでトレーニングされている場合、他のグループを正確に理解して決定を下すことができない可能性があります。


同様に、AI システムが特定の仮定やステレオタイプに基づいて意思決定を行うように設計されている場合、社会に有害な偏見を永続させる可能性があります。


AI の最大の問題の 1 つは、AI がトレーニングされるデータが、そのデータを収集してキュレートする人々のバイアスを反映している可能性があるという事実です。


たとえば、顔認識システムのトレーニングに使用されるデータセットの大部分が肌の色が薄い人の画像で構成されている場合、肌の色が濃い人の顔を認識しようとすると、システムのパフォーマンスが低下する可能性があります。


これは、次の場合のように、現実世界に影響を与える可能性がある一種のバイアスです。 有色人種が不当逮捕される顔認識の一致に問題があるためです。


しかし、バイアスがかかる可能性があるのはデータだけではありません。これらのシステムを作成してトレーニングする人々も、無意識の偏見を通じてバイアスを導入する可能性があります。


たとえば、勉強ほとんどが人種差別的で性差別的なデータセットで訓練された GPT-3 のような言語モデルは、ジェンダーのステレオタイプ化された人種差別的なテキストを生成する傾向があることを発見しました。これは、有害な固定観念を永続させ、AI システムの可能性を制限する可能性があります。


Monopoly919 による写真 - stock.adobe.com


社会的責任のある AI ツール

組織の 74% が AI の信頼性と責任性を確保するための措置を講じていないため、社会的に責任のある AI ツールを作成する緊急性は共同責任です。バイアスの可能性を特定し、それを軽減するために積極的に取り組むことから始めます。


これは、AI に取り組む人々のチームを多様化し、幅広い視点と経験が代表されるようにすることを意味します。


AI のトレーニングに使用されるデータが多様であり、対象となる人口を代表するものであることを確認することが重要です。これには、データを慎重に選択してキュレーションし、既存の偏見やステレオタイプを永続させないようにすることが含まれます。


さらに、データがさまざまなグループの人々に与える潜在的な影響を考慮し、さまざまな視点から情報を入手して、データが包括的かつ公正であることを確認することが重要です。


AI システムの設計は透明性があり、説明可能でなければなりません。これは、潜在的なバイアスや問題を特定して対処できるように、AI システムの意思決定プロセスが明確で、人間が簡単に理解できるようにする必要があることを意味します。


AI システムのパフォーマンスを定期的に評価および監視して、意図したとおりに機能し、有害なバイアスを永続させないようにすることが不可欠です。これには、AI システムのトレーニングに使用されるデータの定期的な分析や、AI モデルの決定とアクションが含まれます。


政府は、成長と開発を阻害することなく、社会的に責任のある AI の開発と使用を強制する法律と規制を作成する必要があります。


ティアニーによる写真 - stock.adobe.com


社会のために AI を最大限に活用する

AI は、私たちの生活、仕事、社交の仕方に革命を起こす可能性を秘めています。しかし、AI システムの開発と依存を続ける中で、バイアスの可能性にも対処することが重要です。本当の懸念は AI そのものではなく、AI を開発し訓練する人々の偏見であることを認識しなければなりません。


この問題を認識し、それを軽減するための措置を講じることで、AI の未来がすべての人に利益をもたらすものになるようにすることができます。


目標は、社会のために AI を開発することです。このような目標を達成するには、政府、開発者、およびユーザーの連帯責任が必要になります。政府は、AI システムが社会的に責任ある方法で開発されることを保証する規制を実施する必要があります。


開発者は、多様性、透明性、および説明責任を採用することにより、偏見を防ぐ必要があります。意図しない偏見や悪用を防ぐために、AI システムのパフォーマンスを定期的に評価および監視する必要があります。


一般市民は、AI の使用方法に責任があることも理解する必要があります。社会的に無責任な AI の使用は、すべての人に思いとどまらせる必要があります。