AI 革命は、間違いなく、新しい技術的発明をもたらしてきました。
その混乱により、チャットボットや ChatGPT などの AI モデルが導入され、現在 21 世紀の人々の生活、交流、社交の方法を形作っていることは驚くべきことです。
昨年のローンチからわずか 2 か月で、OpenAI チャットボットの ChatGPT は、世界中で 1 億人を超えるユーザーを記録しました。
これに続いて、Google は、検索結果から簡単に消化できる情報を人々に提供する、AI を利用した会話モデルである Bard の立ち上げも発表しました。
これらはいずれも記念碑的な成果であり、AI の開発が人間の楽なライフスタイルを確保することにいかに近づいているかを示しています。しかし、いくつかの失効があるかもしれません。
AI の助けを借りて人事を処理するためのより良い方法を作成することには、いくつかの意味があります。
ChatGPT やその他の高度なチャットボットなどの高度な AI モデルの出現は、すでに人間の仕事に脅威を与えています。
遅かれ早かれ、AI は密かに人間の仕事を乗っ取ったり、多くの労働者を彼らの分野で役立たずにするでしょう。
AI が革命を起こすにつれて、仕事の混乱は避けられないと考えられています。しかし、これらの AI モデルは交代で人間の生活に侵入し、物事の秩序を変えるため、注意すべき点は他にもあります。
これらの新しいテクノロジー (ChatGPT およびその他のチャットボット) に関連する潜在的な問題は、これらのモデルがどのように社会的混乱を引き起こすかを真剣に観察する必要があります。
OpenAI の CEO である Sam Altman 氏によると、ChatGPT と戦う際の大きな問題の 1 つはバイアスの問題です。
人間の偏見は ChatGPT の主要な問題として認識されています。もちろん、これは OpenAI の ChatGPT だけに限ったことではありません。
選択的な人間の好みの問題を抱えたチャットボットは他にもあります。
Tidio の調査によると、AI にバイアスがないと考えている人はわずか 2% です。対照的に、回答者の 45% は、AI の主な現代の問題は社会的偏見であると考えています。
これは、ChatGPT のような AI チャットボットやその他の AI チャットボットの判断と操作にまだ公平性が欠けていることを意味します。これらの AI モデルを使用すると、人間の偏見が表向きは顕著になるためです。
AI バイアスは、偏ったデータを使用してモデル アルゴリズムをトレーニングするときに発生する人工知能の問題であり、最終的にマシンの判断に影響を与えます。
AI における偏見の役割を説明する中で、データ サイエンス & AI の責任者であるスティーブ ヌーリ氏は、AI における人間の偏見には、性別による偏見、人種的偏見、年齢差別の 3 つの形態があると述べました。
AI における人間の偏見は、侵害されたデータまたは開発者の責任であると考えられています。
これは、Chatbot が人種的な中傷を扇動したり、人を傷つける発言をしたり、特定のグループの人々を差別したりすることはほとんど不可能であることを示しています。
モデルによって消費される偏ったアルゴリズムまたはデータがある場合を除きます。
良い例は、2016 年にMicrosoft の Twitter チャットボットである Tay が人種差別的であると非難された後、突然閉鎖されたことです。
最近ローンチされた OpenAI の会話モデルである ChatGPT でさえ、アメリカの元大統領であるドナルド トランプ氏に対して「反保守的な偏見と恨み」を抱くことで、偏見を持っていると非難されてきました。
ChatGPT がドナルド トランプ前大統領に対して抱いていた政治的偏見は、ソーシャル メディア上で AI モデルとその開発会社である OpenAI に対する高い批判につながりました。
広範な困惑に応えて、OpenAI の CEO である Sam Altman は 2 月初旬にこの問題についてツイートしました。 Samさんによると、ChatGPTバイアスを根絶し、改善するための調整が進行中です。
彼のツイートで、サムは OpenAI の従業員に向けられた「憎悪」があったことを認めました。
彼はまた、彼の会社がチャットボットのデフォルト設定を改善して中立性を促進し、ユーザーが個人の好みに基づいてシステムを使用できるように取り組んでいることも明らかにしました.
しかし、これは簡単には起こりません。 Sam でさえ、このプロセスは難しく、実装には時間がかかることを認めました。
ChatGPT の政治的偏見は、OpenAI の従業員に対する不当な攻撃につながりました。これは、偏った AI モデルの社会的影響を比較検討するのに十分な指標です。
AI のバイアスは、個人やコミュニティに悲惨な結果をもたらす可能性があります。それは、ある集団に対する不当な批判や差別につながる可能性があり、間接的に敵意や社会的爆発を引き起こします。
そのため、現時点で偏見を無視するのではなく、実行可能な解決策を要求することが重要です。
サムが述べたように、「他人を攻撃する」ことは AI 分野の進歩に大きな影響を与えません。 AI チャットボットのバイアスを減らすために、可能なオプションに注意を払う必要があります。
AI チャットボットにおける人間の偏見は、偏ったアルゴリズムやデータ、およびモデルの開発者を使用することによって引き起こされます。 AI の偏りを防ぐには、チャットボットの構築時に次の点に注意する必要があります。
多様な出身の開発者
AI におけるアルゴリズム バイアスまたはデータ バイアスは、開発者 (人間である) のアプローチが自然に偏っているため、ほとんどの場合可能です。
同種の開発者のチームが、特定の人生の問題に関する彼らの見解や視点を支持またはサポートする AI モデルを構築するのは簡単です。
これが起こらないようにするには、アルゴリズムのバイアスの観察と削減を支援できる多様なデータ サイエンティストのチームを採用する必要があります。
合成データの使用
AIモデルによる大量の無修正データの消費は、それを偏らせます。チャットボットのバイアスを根絶する 1 つの方法は、モデルが開発者によって徹底的に観察された合成データを使用するようにすることです。
透明度
ChatGPT によって発見された偏見への反発である OpenAI は、その新しい AI チャットボットは依然として「事実を正しく保つのに問題があり、時には有害な指示を出す」ことに同意しています。
AI企業は、重要な情報や機密情報についてチャットボットがまだ信頼できない理由を人々に伝えるために、きれいに出てきました.
これは、チャットボットにおける人間の偏見を抑えるために必要な透明性の形式です。モデルの弱点を示すことで、エスカレートする前に社会的混乱を抑えることができます。
前述のとおり、開発者はモデルを開発する前後にテストする必要があります。
これは、チャットボットの機能を評価し、テストの原因で表面化する可能性のあるバイアスに対処するのに長い時間がかかる可能性があります.
AIチャットボットが機能するために必要なデータをデータサイエンティストが綿密に研究できるようにし、モデルがどのように応答するか、またはモデルが退化した情報を構築することを期待する方法を完成させることは、開発後に実施する必須の検査であるべきです。
ChatGPT は、他のすべてのチャットボットと同様に、人間の偏見から解放されているとは言えません。これは、AI のトレーニングに使用するデータと、開発者の個人的な好みの両方によって生じる基本的な問題です。
開発者とデータ サイエンス チームが、これらの AI モデルで使用されるデータの収集へのアプローチにおいて臨床的かつ客観的になり始めると、AI バイアスは消滅への旅を開始します。