OpenAI は、書面による指示だけでリアルなシーンを生成できる新しいテキストからビデオへのモデルである Sora により、生成 AI を新たな高みに引き上げました。 DALL-E やその他のテキストから画像へのモデルは AI 生成の力を示してきましたが、Sora はモーションの要素を追加することで、私たちがどこまで到達したかを示しています。
Sora モデルが公開されたらテストし、週刊ニュースレター「AI Hunters」で無料ガイドをリリースする可能性もあります。新しい AI の画期的なプラットフォームやイベントをお見逃しなく!
Sora は静止画像だけでなく、最長 1 分のビデオを生成できます。また、既存のビデオを取得し、欠落しているフレームを埋めてコンテンツを強化することもできます。創作の可能性は無限です。将来的には、AI によって生成された短編映画、アニメーション、さらには強化されたスポーツのリプレイが登場する可能性があります。
しかし、Sora の本当に素晴らしい点は、物理世界の理解です。複数のキャラクターやモーションが関与する複雑なシーンをシミュレートできます。リアルな葉っぱがそよぎ、木漏れ日が差し込む森の中を歩く人を見たいですか?ソラがあなたをサポートします。
内部では、Sora は拡散モデルとトランスフォーマーに関する過去の作業を活用しています。拡散モデルのランダムステップは、ビデオのような高次元データの生成に優れています。一方、トランスフォーマーは、自然言語のような逐次的なデータ処理タスクを処理します。
もちろん、まだいくつかの制限があります。自動車事故や崖からの飛び込みなどの複雑な物理現象をシミュレートすることは困難であることが判明しています。このモデルは原因と結果にも苦労しています。誰かが噛んだ後に魔法のようにクッキーの噛み跡が現れることを期待しないでください。
当然のことながら、OpenAI は安全性を重視しています。一般公開に先立ち、有害なコンテンツや誤解を招くコンテンツをフィルタリングする技術を強化している。進歩には微妙なバランスが必要です。ソラは不適切なものを避けながら現実的に生成する必要があります。
現時点では、同社は次の安全対策を講じています。
コンテンツ制限: OpenAI は、DALL-E 3 モデルに定められているものと同様に、Sora に対して厳格なコンテンツ ガイドラインを確立しました。これらのガイドラインは、暴力的、性的、憎悪に満ちたコンテンツの生成、および実在の人物の肖像や名前のあるアーティストのスタイルの流用を禁止しています。
出所メタデータと識別:透明性と説明責任を促進するために、OpenAI は Sora によって生成されたビデオの出所メタデータを提供する予定です。さらに同社は、視聴者がAIモデルによって作成されたコンテンツを識別できるようにする予定だ。
レッドチームと制限されたアクセス: OpenAI は、製品を「レッドチーム」として、同社の利用規約を回避する可能性があるかどうかをテストする、研究者、ビジュアル アーティスト、映画制作者の選ばれたグループに Sora へのアクセスを許可しました。この制限されたアクセスにより、OpenAI はモデルをより広く利用できるようにする前にフィードバックを収集し、潜在的なリスクを特定することができます。
政策立案者やアーティストとの関わり:同社は、懸念を理解し、モデルの前向きな使用例を特定するために、政策立案者、教育者、アーティストと積極的に関わっています。この積極的なアプローチは、OpenAI のテクノロジーのより広範な社会的影響に対処するという OpenAI の取り組みを示しています。
生成 AI が進歩するにつれて、Sora のようなモデルはコンテンツの作成と消費に革命を起こす可能性があります。これらは、パーソナライズされたコンテンツを生成し、世界を理解し、現実的な仮想世界を強化するのに役立ちます。
ただし、AI によって生成されたコンテンツのリスクを考慮して、これらのモデルが責任を持って開発されることが重要です。 OpenAI は、潜在的な問題を軽減しながらメリットを最大化するために、Sora で重要な措置を講じています。