paint-brush
AIが問題なのではなく、ビッグテックが問題なのです@theantieconomist
977 測定値
977 測定値

AIが問題なのではなく、ビッグテックが問題なのです

The Anti-Economist8m2023/11/17
Read on Terminal Reader

長すぎる; 読むには

大手テクノロジー企業の歴史とその貧弱なデータセキュリティを検討してみると、AI の普及による実際のリスクは何でしょうか?それはAIそのものよりも、大企業によるデータの利用に大きく関係しているようだ。
featured image - AIが問題なのではなく、ビッグテックが問題なのです
The Anti-Economist HackerNoon profile picture


人工知能は、私たちが信じ込まされているほど恐ろしいものなのでしょうか、それとも、非倫理的なデータ使用の実績を持つ大手テクノロジー企業だけが、他のデータを使用してきたのと同じ方法で AI を使用し続けるのでしょうか。できる限りポケットに詰め込みます。


人工知能を最も初歩的に理解している人でも、人工知能の強みはデータを理解する能力にあり、言語モデルや AI をより賢くしたい場合、または特定の目的のために訓練したい場合、重要な要素はデータであることを理解しています。テクノロジー大手は、AI モデルのトレーニングと開発に使用できるクラウド データを最大規模で保有していると予想されるため、まさにここで AI とビッグ テクノロジーのクロスオーバーが始まります。


Chat GPT の最初のバージョンがリリースされた直後の 2022 年以来、 GoogleMicrosoftAmazonはいずれも数十億ドルを投資し、現代の最先端の AI 開発企業と強力な関係を築きました。


このような取引の中でも、従業員はビッグテクノロジーにおける AI の使用に関連して倫理的なジレンマに陥ることがよくあります。 Dario Amodei 氏は、Microsoft の関与に対する安全性と倫理上の懸念から Open AI を去りました。その後間もなく、彼はもう一人の邪悪な義理の妹に頼るために Anthropic を設立し、約 100 ドルを手に入れました。 12億5000万ドルアマゾンからの投資と20億ドルGoogleから。


ビッグテック企業の激動の過去(そして現在)、プライバシー倫理、人工知能に対する彼らの熱烈な支持を考慮すると、おそらく現時点では、問題は AI の開発にあるのではなく、私たちが懸念しているプライバシーの懸念にあるのではないかと心配する人が多いでしょう。はよく知られています。


大手テクノロジー企業、プライバシーへの懸念、AI 言語モデルの機能、政府規制の関係を検討すると、悪意のある組織が AI を利用した場合の高い潜在力に伴うリスクを考慮することが重要です。



AI革命

ほとんどの人が知っている言語学習モデル (LLM) または人工知能は、トレーニングされた情報に基づいて結果を作成するために自律的に動作できる一連のアルゴリズムの大規模な組み合わせです。


AI は、多くの人が考えているほど新しいツールではありません。私たちの日常生活では、多くの AI ツールが使用されています。車の地図からソーシャルメディア広告、Netflixのおすすめに至るまで、それらはすべてAIツールを使用して私たちのルーティンや習慣を学習し、私たちが関与する可能性が高いものについて推奨や推測を行います。


人工知能は正しく使用すると、日常生活におけるテクノロジーとの関わり方を変える力を持ちます。それは私たちの生活をより便利にするだけでなく、他の方法ではほとんどの人ほど簡単に現実と対話することができない人々のアクセシビリティを変える可能性もあります。たとえば視覚障害のある人は、 AIを使用するより良いナビゲーションのために周囲の世界をナレーションします。


AI は、電子商取引、医療技術、金融、農業、教育など、さまざまなプロセスを合理化するためにすでに使用されています。人々の仕事を楽にする。私たち人間がすでに行っている自動化されたタスクを実行できるということは、多くの人の仕事の大部分を占める日常的な作業にそれほど多くの時間を費やす必要がなくなり、人間の創意工夫が最も重要な領域に集中できることを意味します。


たとえば、ブロードウェイの工事とダウンタウンの交通停止を考慮すると、AI のおかげで、今日の職場への最適な通勤ルートを簡単に判断できるようになります。つまり、10 分間余分に睡眠をとり、出発前にコーヒーを淹れることができます。これにより、一日がより充実し、仕事の生産性が向上します。


覚えておくべき重要なことは、機能を制御するためにチップのみに依存する他のツールとは異なり、AI は大量の情報に基づいてトレーニングされ、その後学習し、特定のプロンプトを与えると思い出すことができるということです。


AI の開発とビッグ テクノロジーの関係は主にここから始まります。Google、Amazon、Microsoft は、最大規模の人間データ (おそらくあなたのデータも含む) を保管しており、AI モデルのトレーニングに活用でき、活用しているからです。


私たちのデータで自分たちが最も信頼できないことを証明した企業が、さらに賢い AI の開発を主導しているのは少し憂慮すべきことです。


言うまでもなく、それは災難を招くレシピのように思えます。そして、失うものが最も大きいのは私たち消費者です。


人工月のダークサイド

テクノロジー業界の私たちの多くは、生成 AI ツールの将来性について慎重ながらも楽観的であり、大きな可能性を秘めた AI テクノロジーを使用した刺激的なイノベーションが継続的に見られます。


誤解しないでください。AI は私たちの世界では非常に良いものであり、現在、多くの人々の日常生活を助ける重要なテクノロジーの開発に使用されています。このような強力なテクノロジーを私たちの日常生活に導入するときに対処する必要があります。


利益中心であると同時に、大手テック企業には消費者のデータプライバシーを尊重する責任があります(これは彼らが負っている責任です) 無視され続けた)、特にデータを使用してトレーニングされる AI に関しては、言語モデルのトレーニングに使用しているデータの種類を十分に意識することが非常に重要になります。実際には、Facebook の写真、Instagram ストーリー、位置履歴、財務データなどが AI モデルのトレーニングに使用されることを望まない人もいます。さらに、医療、生体認証、財務、位置情報などの機密データも含まれます。


AIヒステリーは見当違いなのか?

私たちは間違いなく見たことがあります摂取AI の能力をめぐってヒステリーが起き、AI が仕事を奪い、知覚を獲得し、最終的には人類を追い越すのではないかと心配していますが、現実的に言えば、私たちが恐れるべきなのは、Google が利益を最大化するために私たちのデータを私たちに対して利用することです。これは彼らが行ってきたことですが、私たちがあなたの生活のあらゆる側面を理解して記録し、間違った人々がアクセスできるAIに対処し始めると、私たちに対して私たちのデータを活用する可能性がさらに深刻になります。


AI モデルが機密/個人データでトレーニングされるリスク

Amazon Alexa を使用して収集されたデータが令状なしで法執行機関に要求および提供され、犯罪捜査に悪用されたと人々が報告する事件がすでに発生しています。


また、個人データが政治的議題を推進し、誤った情報を広めるために使用された事件も複数発生しています。大手テクノロジー企業によって収集されたデータが悪者の手に渡り、何百万もの人々の個人情報への犯罪的アクセスが与えられるというデータ侵害が多発しています。


個人データを使用して AI モデルをトレーニングすると、データの入力と交換のプロセスでの不正アクセスの結果、プライバシー侵害という潜在的な問題が発生するリスクが生じます。精査と注意の下で取り扱われない場合、AI モデルのトレーニングにデータが使用される長いプロセス中に、データが何度もやり取りされ、人々が個人データに無制限にアクセスする可能性があります。このような大量の複雑な情報を扱う場合、セキュリティ対策の不備により機密情報の不正な公開につながるデータ侵害が発生することはあり得ないことではありません。


多様なデータセットに基づいて AI をトレーニングすることの重要性は、AI モデルが受けたトレーニングに基づいてバイアスや差別を有する可能性が非常に現実的かつ以前に経験されているためです。顔認識を例にとると、AI モデルを使用して、特定の店舗で誰が窃盗を行っているかを検出し、3 年間にわたってセキュリティを強化することができます。セキュリティ映像に映る人々の大部分が特定の人種である場合、AI モデルは、その特定の人々のグループ外にいる人は誰でも窃盗を行う可能性が高いと予測し始める可能性があります。トレーニング データが多様で代表的でない場合、AI モデルはその学習を多様な集団に正確に一般化するのに苦労する可能性があります。


AI モデルが一連の人口統計のみでトレーニングされる場合、データ内の偏りに基づいて、言語モデル自体に潜在的な偏りが生じる重大なリスクが残ります。ここでの問題は比較的単純です。特定のグループがより多くの個人データを利用できる場合、AI 内のバイアスを防ぐにはどうすればよいでしょうか?データセット内で過小評価されているコミュニティに対して排除的な結果が生じる可能性があります。


AI モデルのトレーニングに使用するためにユーザーのデータが収集されていることがユーザーに開示されているかどうかについて、同意と透明性が欠如しているという要因もあります。常に情報にさらされ、選択の麻痺を経験することが多い現代、 91%特定のアプリケーションにサインアップするときに利用規約を最後まで読まない人の割合は、消費者が自分のデータ権利に関して何にサインアップしているのかを実際に正確に知っているのかという疑問を引き起こします。これはユーザーの信頼を損なう上で大きな役割を果たす可能性があります。 研究すでに驚くほど信頼性が低いことが判明しており、42% の人が大手テクノロジー企業に対する信頼度が低いか、現在も信頼している。


これらの大手テクノロジー企業でさえ、大規模なデータ侵害につながるサイバー攻撃の影響を受けやすいことは、非常に現実的な脅威です。 近年の歴史AI を訓練するために大量のデータの使用と送信が増加するにつれて、そのようなリスクは高まるばかりです。 Facebook のようなテクノロジー大手には、このようなサイバー攻撃やユーザーデータの漏洩という緊迫した歴史があり、消費者は、テクノロジー大手がすでに存在しているものにさえ対処できないときに、新たな脆弱性を導入するのが賢明なのかどうか疑問に思っています。彼らの皿。


AI テクノロジーの普及に伴い、今後数年間に発生する可能性のあるもう 1 つの潜在的な問題は、匿名化されたデータの再識別です。これにより、個人を危険にさらす可能性のある機密情報が再び明らかになる可能性があります。


最後に

多くの人が人工知能とそれが労働力にもたらす可能性について多くの懸念を抱いていることは非常に理にかなっていますが(いずれにしても何も変わらないでしょうが)、人間の自然な本能として、何か新しいものに対しては懐疑的であると思います。 、問題がずっとここにあったかもしれないことを私たちは忘れてしまいます。


それはすべて平均的な労働者のせいではありません。これらの数十億ドル規模の企業は、おそらく私たちが必要以上に彼らを憎まないようにかなりの努力をしてきたでしょう。しかし、それでも人々を悪者扱いするのを見るのは非常に興味深いですそれを扱う手ではなく、打つ道具です。 AI について理解しているかどうかに関係なく、これらのテクノロジー巨人のデータ保護の欠陥についてはまだご存知のはずです。そのため、今後 5 年以内に、AI が倫理に反して使用されることをめぐる論争が起きても驚くべきことではありません。あなたのあらゆるステップを追跡し、そこからお金を稼ぎましょう。



Unsplash のAdi Goldsteinによるリード画像