先週の DevDay 中に、 OpenAI はCEO の Sam Altman の指揮のもと、一連のアップデートを発表しました。同社は「GPT-4 Turbo」を導入し、外部開発者にとっての手頃な価格を強化した。このアップグレード バージョンでは、ChatGPT のナレッジ ベースが拡張され、以前の 2021 年 9 月の制限を超えて、2023 年 4 月までの情報が含まれるようになります。一方、奇妙な戦略的措置として、同社はクライアントの著作権侵害訴訟の訴訟費用を負担することを提案しています (異議申し立ては受理されました) 。
しかし、最大の発表は、アルトマン氏が「GPT」と呼ぶもの(別名、ジェネレーティブ・プレトレーニング済みトランスフォーマー。彼はブランド化が得意ではない)が利用可能になることだった。本質的に、GPT は、既存の「知識」に加えてカスタム (プライベート) データを使用して構築でき、特定の目標や個性を持つように調整できるカスタム チャットボットです。
ChatGPT アプリですでにテストできるユース ケースの 1 つは、「ゲームの時間: あらゆる年齢のプレイヤーにボード ゲームやカード ゲームをすぐに説明できます。ゲームを始めよう!"もう 1 つは、「交渉人: あなたが自分自身を主張し、より良い結果を得るのをお手伝いします。優れた交渉人になってください。」そしてもちろん、私のお気に入りは「Genz 4 ミーム: 専門用語と最新のミームを理解するのに役立ちます。」です。
AI「エージェント」(そう呼ぶべき)は、コーディングの知識がなくても、自然言語のみを使用して作成/構成できます。名前と説明を付けるだけで、何を行うべきか、どのように動作すべきか、何を避けるべきかを定義できます。その後、ファイルをアップロードして、指定された特定のタスクの習熟度を高めることができます。アルトマン氏はデモで、過去に行った講演に基づいて創業者にアドバイスを与える「スタートアップメンター」を作成した。
私たちは本質的にAI 戦争の第 2 波を目の当たりにしています。 Wave 1 は大規模な言語モデルを製品化し、民主化しました。現在、個人に合わせてカスタマイズしています。同じことがインターネットとソーシャル メディアにも起こりました (2007 年のオープン Facebook から 2023 年のパーソナライズされた TikTok まで)…しかし、それには 1 年ではなく 15 年かかりました。
パーソナライズされた AI アシスタントの世界に移行するにあたって、4 つのことが際立っています。
プライベート AI アシスタントは、ChatGPT が 1 年前に登場して以来、多くの企業が切望してきたものです。彼らは従業員ハンドブック、福利厚生情報、顧客サービスマニュアルなどのデータを持っており、コードを作成したりデータを一般に公開したりする必要がなく、チャットボットを通じて検索可能でアクセスできるようにしたいと考えています。これが可能になりました。
冗談はやめましょう。これにより、5 人で行っていた作業が 2 人で行えるようになるため、何百万もの雇用が奪われることになります。顧客サービスは壊滅寸前です。次に人事部が来ます。会計もね。組織全体、世界中で、「サポート」機能は、それ以上ではないにしても、半分になります。企業は先週の発表前からすでに取り組んでいた。その作業は現在 10 倍に加速されています。こうした変化に対処することが政府の最優先事項であるべきだ。
アルトマン氏のあまり語られていない発表の 1 つは、GPT が共有可能であり、近い将来商業化/収益化が可能になるという考えです。これは本質的に、21 世紀最大の発明の 1 つである新しい App Store を生み出すことになります。
ChatGPT は設計上オープンであるため、顧客がどこに価値を置くかを見るのは興味深いでしょう。カスタムデータに含まれるのでしょうか?与えられた個性で?前者の場合、最も多くのコンテンツを持つ企業が最も大きな力を持つことになります。その場合は大きな変化はなく、反トラスト規制当局はこれらのツールをさらに詳しく調査する必要があります (コンピューティングの最後の時代のプラットフォームを再作成しているため)。
純プラスの可能性もあります。これは、例えば医療にとって大きなチャンスです。 NGO が、オンラインで入手可能な医療データの宝庫、利用可能な何百万もの診断と画像に基づいてアルゴリズムをトレーニングすれば… 現在の価格のほんの一部で誰もが医療にアクセスできるようになるでしょう。いや、それを最も必要とする一部の人々にとっては無料になる可能性さえあります。 AI の民主化の力についてはすでに書きました。私たちはその現実に近づいています。私たちはそれを実現する意欲を持っていなければなりません。
新しい GPT インターフェイスを使い始めたときに考えた最初の使用例の 1 つは、これまでに妻と行ったすべての会話を AIにフィードして、簡単な日常会話を自動化できないかどうかを確認することでした。
同じような考えを持つのは私だけではないでしょう。これらのツールが普及した後、オンラインでのやり取りが本物かどうかをどうやって知ることができるでしょうか?そして、亡くなった人のデータ (テキスト、電子メール、音声録音など) を AI に入力して、本物の直喩に変えるまでどれくらいかかるでしょうか?対処するために相談できる人はいますか?もうだめだ。実際、それはすでに存在しており、さらに簡単になりました。
アルトマン氏は先週の基調講演で文字通り、「私たちは皆、必要に応じて超大国を手に入れることになるだろう」と述べた。私たちは私たちを永遠に生きさせることができる神を再創造している間、その過程で少しでも人間性を失わないようにする必要があります。
私たちは、AI エージェントが物事について話すだけでなく、特定の指示と与えられた「ペルソナ」に基づいて行動できるという現実に急速に移行しつつあります。 AI エージェント/アシスタントをパーソナライズするとき、私たちは間違いなく彼らに私たちに代わってアクションを起こしてもらいたいと思うでしょう (これは私が 4 月に予測したことです)。アクションを完了するためのパスが定義されていない場合、AI エージェントは独自のパスを作成します。
注意しないと、望ましくない外部性が生じる可能性があります。高級レストランのテーブルを予約したいとします。あなたはAI アシスタントに、それがあなたにとって非常に重要であることを説明します。その後、AI はスタッフに電話をかけ、脅迫します。あるいは、それを行うために誰かを雇います。あるいは、オンラインで見つけたスタッフの情報を感情的に操作します。これらのツールはまさに「ブラック」ボックスであり、これが起こらないように適切なガードレールを設置することが重要です。
今週利用可能になった変更の重要性を強調しすぎないことが重要です。 GPT は依然として「通常の」chatGPT を主に使用しており、パーソナライゼーションが散りばめられています。上記で強調表示したことのほとんどは実行できますが、複数のプロンプトを入力する必要がありました。結局のところ、これは単なるショートカットです。飛躍的な進歩ではありません。今のところ。
私たちは、世代を超えて重要な企業の形成を目の当たりにしています。現在、OpenAI はロールアウトに関して慎重かつゆっくりと取り組んでいます。しかし、私たちはそれらを注意深く監視する必要があります。過去何世紀にもわたって、企業が全能になり、その力を善のために利用するのを見ることはほとんどありませんでした。
AI パーソナル アシスタントの夜明け
幸運を祈ります。
も掲載されています