どんな発展するテクノロジーでも、現実はしばしばヒープの後ろに遅れている。 「今は熱い、自律性の程度で動作するシステムを記述するのに使われていますが、真実は、AIは野外で動作し、多くの企業があなたが彼らの「ファーストエージェント」を信じることを望むよりも長く独自の意思決定を下してきました。 すべての成功物語には、警告的なストーリーがあります - AIエージェントが、その洗練されたアルゴリズムにもかかわらず、驚くほど悪い決定を下し、その展開者に重大な責任を暴露します。 これらは小さなトラブルではなく、彼らは、チェックされていない自律性や不十分に設計されたパラメータが現実世界の結果につながる方法を明らかにしています、金融ミスから倫理的なクアグマまで。 エージェント エージェント Darktrace's AI Cybersecurity: The False Positives Flood(ダークトラースのAIサイバーセキュリティ:偽ポジティブの洪水) AI駆動のサイバーセキュリティエージェントであるDarktraceは、大量のサイバーセキュリティを生み出すことで批判を受けている。 正当なネットワーク活動を悪意のあるものと間違って識別する。偽の警告の圧倒的な数は、セキュリティチームを不敏感にし、実際の脅威が騒音の中から見逃されることにつながる。 false positives The Register:DarktraceのAI「ブラックボックス」がより多くの質問に直面 Wired:The AI That Hacked the Hackers(ワイド:ハッカーをハッキングしたAI) HackerNoon:なぜあなたのAIエージェントが遅すぎるのか AI駆動型ドローン:The Border Incursion Mishap 米国国境警備局のAI駆動の監視ドローンは、隣国の空域に誤って侵入したが、このドローンは、直接の人間のコントロールなしで動作し、国際的な事件と外交的緊張を引き起こした。 ニューヨークタイムズ:AIドローンは国境でミスを犯すだろうか? 外国関係評議会:自動人工知能の地政学的リスク HackerNoon: Autonomous Dronesの意図しない結果 スマートホーム・ボイス・アシスタント(Smart Home Voice Assistants: The Accidental Purchases) スマートホームの音声アシスタントは、コマンドを誤解したり、バックグラウンドの会話から自分自身を活性化したりする文書化された履歴を持っています。 これらの「偶然の購入」は、AIエージェントの責任を強調し、過度に敏感であるか、または強力な確認メカニズムが欠けているため、消費者の不満、予期せぬ料金、およびプライバシーの懸念を引き起こします。 unintended actions アレクサの「偶然の購入」問題 Ars Technica:スマートスピーカーがあなたの会話を偶然に録音する方法 HackerNoon:あなたのスマートホームのAIが助けを止めて道に立ち始める時 19. Microsoft の GPT-3 Powered Chatbot for a News Outlet: The Unvetted Content あるニュースメディアは、GPT-3バージョンで動作するAIチャットボットを短期間に実験し、ニュース記事を生成しました。 ジャーナリズムの誠実さと誤った情報の拡散についての懸念を高め、これは厳格な事実検証と監督なしでコンテンツ作成に強力なAI生成エージェントを展開するという重要な編集的および評判的責任を示した。 unvetted and sometimes nonsensical content ガーディアン: ボットがこの記事を書きました あなたはまだ怖いのですか? 人間? ウォール・ストリート・ジャーナル:ニュース・エージェンシーがAIボットで実験 HackerNoon: AI Isn't a Magical Genius or a Friendly Sidekick - It's a Supercharged Autocomplete (AIは魔法の天才やフレンドリーなサイデックではありません。 株式市場のフラッシュ・クラッシュ:アルゴリズム・アバランシャ 複数 これらの自動化されたエージェントは、市場条件が急激に変化すると急速な価格下落を引き起こし、投資家にとってシステム的リスクと重大な財政的損失を引き起こす可能性があります。 stock market flash crashes エコノミスト:高周波取引の危険 The New York Times: A ‘Fat-Finger’ Trade? or the Beginning of an Algo Apocalypse? HackerNoon: AI 会社を立ち上げるリスクと機会を導く 17.Predictive Policing Agents: The Amplified Bias(予測的な警察官:拡大された偏見) 犯罪が起こりうる可能性のある地域を自律的に識別するように設計された予測警察官は、強化のために批判されています。 しばしば差別的な執行慣行を反映する歴史的犯罪データに依存することによって、これらのエージェントは、少数民族の近隣に警察の資源を不当に配分することができる。 existing biases in policing ニューヨーク・タイムズ:予測警察の問題 UCLA数学:予測警察は偏見的な逮捕につながりますか? HackerNoon: Court Battles Spark an Unexpected AI Movement: Fairness by Design(ハッカーノウン:裁判所の戦いは、予期せぬAIの動きを引き起こす) AI パワフルな顧客サービス ボット: frustration feedback loop 多くの企業は、顧客サービスのためにAI駆動のチャットボットを採用し、しばしば複雑なクエリを理解したり、適切なソリューションを提供できない場合に顧客の挫折につながっています。これらの「愚かな」エージェントは、プログラミングされたスクリプトから逸脱することができず、小さな問題を重大な苦情へとエスカレートし、顧客のネガティブな経験や企業の評判の損傷につながります。 ハーバードビジネスレビュー:あなたのチャットボットを失敗させないでください WorkHub AI:クライアントサービスでチャットボットが失敗する7つの理由 HackerNoon:Task-Level AI Over Job-Level Automationについて ボストン・ダイナミクス・ロボット(Boston Dynamics Robots: The Unintended Consequences of Design) AIの直接的な「無能」ではないが、ボストン・ダイナミクスのますます敏捷なロボットに対する世論の反応は、関連する責任を暴露した。 これらの機械の転職、監視、さらには潜在的な兵器化についての懸念は、AIの影響力そのものが、技術の限界を押し上げる企業にとって社会的な不安や規制圧力を引き起こす可能性を示しています。 social and ethical implications MITテクノロジーレビュー:ロボットを殺す倫理 ボストン・ダイナミクス:コミュニティにおけるモバイルロボットに対する倫理的アプローチ ハッカーノーン:人々はロボットのコントロールを失っているか? 金融ロボアドバイザー:高リスクの多様化の災害 新しい金融ロボコンサルタントは、ポートフォリオを自主的に管理するように設計され、顧客の持分を非常に変動性の高いリスクの高い資産に攻撃的に多様化し、「収益を最大化する」ため、エージェントのアルゴリズムは、人間の判断が欠け、市場のシグナルを極端な成長の機会として解釈し、市場が回転すると巨大な損失につながりました。 ウォール・ストリート・ジャーナル: When the Robo-Adviser Stumbles ブルームバーグ:ロボコンサルタントは市場の崩壊で厳しい運転をしました ハッカーノーン:AIがブロックチェーンで失敗したとき、私たちは誰を責めますか? DeepMindのヘルスケアAI:データプライバシー侵害 グーグルが所有するAI会社であるDeepMindは、特に患者データを処理するアプリ「Streams」に関して、NHSとの協力について批判を受けた。 これは、データの不正処理が厳しい規制上の罰金と公衆の信頼の侵害につながる高度に規制されたセクターにおけるAI企業の重大な責任を示した。 data privacy 新科学者:DeepMindのNHSデータ取引は違法だった ガーディアン:GoogleのDeepMindがNHSデータへの「不適切な」アクセスを与えた HackerNoon: HealthcareにおけるAIの倫理 「Generative Art AI: The Copyright Conundrum」 現実的な画像を生成できるAIエージェントは、周囲の熱い議論を引き起こしました。 これらのAIエージェントは、明示的な許可なしに既存の芸術作品の膨大なデータセットに訓練されるとき、著作権のある材料に近い出力を生み出し、アーティストからの訴訟を引き起こすことができます。 copyright infringement Artnet News: Getty Imagesは、AIアートジェネレーターStable Diffusionの作成者を訴える Congress.gov: Generative Artificial Intelligence and Copyright Law(生成人工知能と著作権法) HackerNoon:AIと著作権:生成型AIはIP法の再考を強制するか? 代替制裁のための補正違反者管理プロフィール(COMPAS: The Biased Bail Bot) 被告が再犯する可能性を評価するためにいくつかの米国の裁判所で使用されたコンパスアルゴリズムは、有意義であることが判明した。 このアルゴリズム的な偏見は、司法システムにおける公平性とAIがシステム的不平等を永続化する可能性に関する深刻な倫理的および法的問題を引き起こした。 biased against Black defendants タグ:Machine Bias Wired: How a 'Black Box' AI Tool Perpetuates Racism in the Justice System(「ブラックボックス」のAIツールが司法システムにおける人種差別を継続する方法) Kaggle: COMPAS レシディビズム 人種偏見 自動運転型Uber: The Fatal Collision 2018年、Uberの自動運転テスト車両がアリゾナ州テンプーで歩行者に衝突し死亡し、自動運転車に関わる最初の死亡事故を記録した。調査では、AIエージェントが歩行者を直近の脅威として適切に分類できず、緊急ブレーキシステムが無効となったことが明らかになった。 Mashable: 自動運転のUberが致命的な事故の6秒前に歩行者を見た 国家交通安全委員会(NTSB):自動運転車による致命的な衝突 HackerNoon: The Day A Self-Driving Car Killed A Pedestrian (ハッカーノーン:自動運転車が歩行者を殺害した日) AI駆動の医療エージェント:誤診のムードル 初期段階のがんを検出するために訓練された新しいAI診断剤は、この特定の状態のための十分な訓練データの欠如のために、稀な形態のメラノーマを常に誤診した。 Nature Medicine: A Global View of AI in Healthcare(自然医学:医療におけるAIのグローバルな視点) ジョンズ・ホプキンス: AI on AI: Artificial Intelligence in Diagnostic Medicine Reddit:医師がAI診断ホラーストーリーを共有 「Clearview AI: The Privacy Predicament」 Clearview AIの顔認識テクノロジーは、同意なしにインターネットから何十億もの画像を削除することで構築され、 法執行機関はそのデータベースを使用して個人を識別し、世界中のデータ保護当局から訴訟や罰金が科される。 privacy concerns and legal challenges ニューヨーク・タイムズ:私たちが知っているプライバシーを終わらせる秘密の会社 ウィキペディア: Clearview AI The Verge:Clearview AIはヨーロッパで顔の収集をやめなければならない Daegu BankのAI取引システム:脂肪指の失敗 韓国の銀行であるDaegu Bankは、AI駆動の外国為替取引システムの故障による重大な財政的損失を経験しました。このシステムは、人工知能のエージェントが人間のエラーを強化する可能性を示しました。 Yonhap News Agency:Daegu Bankは大規模な取引損失に苦しんでいる ブルームバーグ:百万ドルの「脂肪指」エラー 韓国タイムズ:FSSが韓国投資・証券取引システムの失敗を調査 ChatGPTの幻覚:製造された情報危機 ChatGPTは、革新的な大規模言語モデルであり、関心のある傾向を示しています。 「事実上間違ったまたは無意味な情報を高信頼性で生成することから、法的ケースを製造し、間違った医療アドバイスを提供することまで、これらのケースは、事実上の正確さよりも流暢性を優先するAIエージェントに関連する責任を暴露します。 hallucinations ニューヨーク・タイムズ『When A.I. Makes Things Up』 HackerNoon: ChatGPT Hallucinationsの危険性 精神科タイムズ:OpenAI、ようやくChatGPTが精神科の被害を引き起こすことを認める Zillow's iBuyer Algorithm: The Billion-Dollar Blunder(ジロウのiBuyerアルゴリズム) Zillowのアルゴリズム的な住宅購入プログラム「Zillow Offers」は壮大な失敗を経験し、同社がサービスを中止し、従業員の4分の1を解雇した。 これは、50億ドルを超える大規模な損失を引き起こし、十分な人間の監督なしに複雑なAIエージェントを不安定な市場に展開するリスクを示した。 overpaid for properties ウォールストリートジャーナル:ZillowのiBuyingビジネスは失敗しました。 ブルームバーグ:ZillowのAIミス 「Iceberg.digital: Trust Incident Zillow」 Googleフォト:Gorilla Gaffe 2015年、Google フォトは、AI エージェントが 2 人の黒人を「黒人」とタグ付けしたときに大きな反応に直面しました。 「この非常に攻撃的なカテゴリ化は、エージェントの訓練データと、さまざまな人間の顔を正確に識別する能力の重要な欠陥を暴露しました。 gorillas Wired:Google Photosはまだ人種差別的で、簡単な修正ではありません The Guardian: Google's solution to accidental algorithmic racism: ban gorillas Reddit: Google フォトはどうしてこんなに悪く混乱したのですか? テスラのAutopilot Crashes: The Danger of Over-Reliance テスラのオートパイロットは、運転手による数多くの事故に巻き込まれています。 監視のために設計されたAIエージェントは、静的オブジェクトや緊急車両と戦い、衝突や安全規制当局によるその後の調査を引き起こしました。これらの事件は、特に人間と機械の相互作用が過度の信頼を防ぐために設計されていない場合に、安全に重要なアプリケーションにAIエージェントを展開することに関連する巨大な責任を強調しています。 over-relying on its capabilities National Highway Traffic Safety Administration(NHTSA):NHTSAがテスラの自動操縦システムの調査を開始 ロイター:TeslaのAutopilotは事故後に検査中 ウィキペディア:Tesla Autopilot Amazon’s Recruitment AI: The Sexist Hiring Bot(アマゾンの雇用AI:セクシストの雇用ボット) アマゾンの内部AI採用エージェントは、雇用を簡素化することを目指し、すぐに女性に対する深く根ざした偏見を明らかにした。このエージェントは、過去10年間の雇用データに基づいて訓練され、「女性」という言葉を含むレポートを罰し、すべての女性の大学の卒業生を下回った。この固有の性差別主義は、会社にプロジェクトを完全に削除することを強要しました。 ロイター:Amazonは女性に対する偏見を示した秘密のAI採用ツールを削除 IMD Business School:Amazonのセクシスト雇用アルゴリズムはまだ人間よりも優れているかもしれない LinkedIn:AIにおける多様なデータの重要性 1.マイクロソフトのTay Chatbot: The Racist Twitter Persona マイクロソフトのAIエージェントへの野心的な進展は、急速かつ不安定な転換を遂げた。 2016年にツイッターで立ち上げられたTayはインタラクションから学ぶように設計されたが、24時間以内に、Tayは異性愛的で、嫌悪的で、ホロコーストを否定するボットに変身し、不審なフォロワーに攻撃的なツイートを投げかけた。この災難的な失敗は、コントロールされていない環境におけるAIエージェントの極度の脆弱性を強調し、学習アルゴリズムが悪意のある入力によってどのように迅速に破壊されるかを示し、MicrosoftにPRの悪夢と倫理的なAI展開の明確なレッスンを残した。 Tay ガーディアン:マイクロソフトのAIチャットボットTayが人種差別化モンスターになる ウィキペディア: Tay (bot) Ars Technica:マイクロソフトのTay AIは、ツイッターのおかげで人種差別的で嫌悪なチャットボットです それぞれの例は重要な教訓を強調しています:AIの展開、特に自律的なエージェントは、単なる技術的なトラブルをはるかに超える重要な責任を負っています。 人間のように動作するなら、人間のように損害を生み出すことができます。 新しい現象として「AIエージェント」をめぐる現在のハイプは誤解です。 今日のエージェントはより洗練されており、AIは数十年間、初期の取引アルゴリズムからロボットに至るまで、野外で自律的な決定を下してきました。 無能なAIの結果は、偏見のあるアルゴリズムによって引き起こされる公衆の信頼の侵害から、実質的な財政的損失や人間の安全に対する脅威まで、深く続くことができます。 インテリジェントだけでなく、責任ある、透明で、最終的に責任あるシステムを構築します。 開発者、デプロイヤー、および規制当局がこれらのミスステップから学ぶことにかかっています。