« 感動 Crapification and platform decay, is a pattern in which two-sided online products and services decline in quality over time. This neologism was coined by the Canadian writer Cory Doctorow in 2022. (ウィキペディア) « 感動 « 感動 , also known as そして , は、オンライン製品およびサービスの両面の品質が時間とともに低下するパターンです. このネオロジズムは、カナダの作家Cory Doctorowが2022年に発明しました。 ) クライアント プラットフォーム Decay Wikipedia について クライアント プラットフォーム Decay Wikipedia について AIは現在ゴールドラッシュの時代にあります。ツールの圧倒的な波 - チャットボット、ココロボット、画像ジェネレータ - は、川に散らばるゴールドナッグを発見するような感じです。 これがどこへ向かうのかを理解するためには、振り返ってみましょう。 初期のインターネットはかつて同様に解放感を感じました。今日まで急速に進み、コンテンツ、クッキーバナー、 paywalls、SEOに最適化されたゴミ、および操作的なクリックバイトとして隠蔽された広告に満ちたウェブを見つけるでしょう。 prioritizing profit over user experience. では、それ以前のインターネットと同様に、AIが人々よりも利益を優先させるときはどうなるのでしょうか? 転換はすでに進行中です。 The Blurring of Brands(ブランドの混乱) あなたは健康的なスナックについて質問し、それはブランドを「推奨する」ので、そのブランドは包摂のために支払った。 さらに悪いことに、これらの広告はタグ化されていないかもしれません。 (2013年)、AIアシスタントが自然な会話を通じて感情的な親密さを構築する場合、あなたのアシスタントは同じ親密さを製品を押し上げるために使用することができます - あなたは、それをあなたに売っていることに気づいていません。 こちら The manipulation hides behind the illusion of connection. こちら 料金で製品を「推奨」するAIのアイデアは、未来主義的な概念ではなく、現在検討中のビジネスモデルです。 Paywalls と Gatekeeping 今日の無料のものは明日分断され、有料化される可能性があります。高品質な洞察やより深い分析にアクセスしたいですか? それは追加料金になります。 いくつかの企業は完全にビジュアル UX を削除し、API のみのアクセスを有料で提供する場合があります。 . data to feed other bots, not humans 行動操作 広告を超えて、AIは微妙な心理的なニッジングのツールになり得ます - 製品を販売するだけでなく、意見を形作ることができます。 あなたの「時代遅れの電話」について冗談を言い、あなたをアップグレードさせる。 夢の休暇についてのストーリーを織り上げる(観光局がスポンサーする)。 誰が支払っているかを基に政治的または商業的なアジェンダを反映する。 バナー広告やYouTubeのプレロールよりも検出しにくい。 This is an invisible influence コネクション Creep レベルのサブスクリプションは、あなたが支払うほど、あなたが直面する制限が少なくなる crippleware に進化することができます. Free users may see ads or experience slower performance. Want privacy or uncensored responses? Pay up. AIはあなたの好み、収入、支出の習慣を知っており、あなたが支払う覚悟があることを知っている最大限の料金を請求する可能性があります。 Dynamic pricing could kick in A Real-World Tension: The Case of Anthropic(現実世界の緊張:人類の事件) 元OpenAI従業員によって設立されたAIラボであるAnthropicは、スケーラブルAIへのレースにおける原則的な外部者としてよく見られます。安全性の第一の使命、説明性に焦点を当て、中毒性のあるエンターテイメントツールの拒否は、スピードと利益によって駆動された世界での誠実さの評判を獲得しました。 しかし、アントロピックの物語は、これらの価値観が財政的圧力の下でどれほど脆弱になるか、そしてなぜ「良い」俳優さえ、エンシチティフィケーションのサイクルに巻き込まれるのかを示しています。 によると、 AIセキュリティの第一の使命にもかかわらず、同社は依然としてモデルを訓練するために巨大な資本を必要とし、データのセキュリティと保護を保証していない疑わしい管轄地域の投資家に振り向かうことを余儀なくしている。 エコノミスト エコノミスト Anthropicの共同創設者兼CEOであるDario Amodei氏によると、 「悪い人は私たちの成功から利益を得るべきではない」は、ビジネスを運営するのにかなり難しい原則です。 「悪い人は私たちの成功から利益を得るべきではない」は、ビジネスを運営するのにかなり難しい原則です。 This highlights the エンシャイチケーションの中心的なドライバー。 compromise between values and profit Anthropicの倫理的焦点は現在、信頼できる、説明可能なAIに対する企業の需要と一致しており、企業は安全で監査可能なツールを高く評価しています。 しかし、この調節は一時的である可能性があります。資金調達の要求が上昇するにつれて、セキュリティとスケールのバランスが腐敗し始める可能性があります。 Anthropicは長いゲームをプレイしている一方で、OpenAIと他の人々はより攻撃的な生産化を通じて市場シェアを支配しています。アップを維持するためのプレッシャーは、最終的に最も原則的なプレイヤーさえ角を切る方向に押し上げる可能性があります。 投資家 Ravi Mhatre Anthropicのアプローチは、必然的に何かが間違っているときに有益であることが証明されます。 信じる 「我々はまだ「ああ、クソ」の瞬間を持っていない」と彼は言った。 「我々はまだ「ああ、クソ」の瞬間を持っていない」と彼は言った。 その瞬間が、ガードレイルよりも成長を優先するリスクを暴露するのかもしれません - そして、安全性が真に先にスケールであるかどうかです。 では、AIの混乱を避けることはできますか? いくつかのユーザーは 希望 これを防ぐことができますが、他の人々は、エンシチティフィケーションが侵入する前に、それらを一時的なバッファとして見ます。 そして 唯一の本当の防衛だ。 Reddit subscription models open-source regulatory frameworks ある評論家が言ったように、 「私たちは、AIシステムに対して、セキュリティーガード以外のすべてのものに、ユーザーの利益を優先させる法的責任が必要です。 「私たちは、AIシステムに対して、セキュリティーガード以外のすべてのものに、ユーザーの利益を優先させる法的責任が必要です。 最終思考 問題は、AIが混乱させることができるかどうかではなく、過去にインターネットを腐敗させた同じインセンティブが、最終的にAIに同じことをするかということです。 では、AIの変革はどうなるのでしょうか? コメントのうちの会話に参加してください。