paint-brush
AIをデータセンターに導入@datastax
144 測定値

AIをデータセンターに導入

DataStax5m2023/06/20
Read on Terminal Reader

長すぎる; 読むには

AI をクラウドだけでなくデータセンターに導入することは、すべての企業が参加できる変革的な AI テクノロジーの波を起こすためのもう 1 つの非常に重要なステップです。
featured image - AIをデータセンターに導入
DataStax HackerNoon profile picture
0-item
1-item

エンタープライズ データとクラウド テクノロジの進歩についてさまざまな仮定を置いていますが、見落とされがちな明白な事実があります。それは、最も重要なエンタープライズ データの大部分が企業データ センターに残っているということです。


これにはたくさんの理由がありますが、合理的なものもあれば、それほどでもないものもあります。場合によっては、HIPAA コンプライアンス、機密性の高い銀行データ、その他のプライバシー上の懸念など、データの機密性が非常に高いことが原因です。また、データがクラウドに移行するのが難しいシステム (従来のエンタープライズ リソース プランニング データやペタバイト規模の科学研究データなど) に存在する場合もあります。そして時には、それは単なる惰性です。あまり良い言い訳ではありませんが、それは常に起こります。


理由が何であれ、企業サーバーのラックにデータを保管することは、多くの企業が AI を活用してビジネスを変革する能力にとって大きな障害であることが判明しています。AI を稼働させるために必要な大量の計算能力を提供することはほぼ不可能だったからです。ほとんどのデータセンターを支えるインフラストラクチャ。


しかし、機械学習モデルを最適化し、データがクラウドにない企業でも AI を利用できるようにするための動きが、新興企業と大手デバイス メーカーの小さな集団を通じて進行中です。それはゲームチェンジャーとなるだろう。

処理能力の問題

グラフィック プロセッシング ユニット (GPU) は、最新のビデオ ゲームや高解像度の映画で必要とされるような高強度のビデオ処理アプリケーションを処理するために開発されました。しかし、これらのプロセッサが複雑なタスクをより小さなタスクに分解し、並列実行できるため、これらの高性能の特定用途向け集積回路 (ASIC) は人工知能にとって非常に役立ちます。結局のところ、AI には機械学習モデルを改良してトレーニングするために大量のデータ ストリームが必要です。


一方、CPU はサーバーの柔軟な頭脳であるため、ハード ドライブ データへのアクセスやキャッシュからストレージへのデータの移動など、さまざまな操作を処理するように構築されていますが、次のような機能はありません。これらのタスクを並列で実行します (マルチコア プロセッサは並列タスクを処理できますが、GPU レベルでは処理できません)。それらは単に、AI が要求する種類の高スループット ワークロードを処理するように構築されていません。


高性能 GPU は非常に高価であり、仮想通貨マイナーがこれらの高性能チップに依存していたために、最近まで不足していました。ほとんどの場合、それらはクラウド プロバイダーの領域です。実際、ハイ パフォーマンス コンピューティング サービスは、企業がデータをクラウドに移行する大きな理由です。 Googleのテンソル処理ユニット、または TPU は、機械学習ワークロードを高速化することのみを目的として開発されたカスタム ASIC です。 Amazon には、AI/ML ワークロードを強化するための独自のチップもあります。

AI 向けの最適化

GPU は、最近見出しを賑わせている AI イノベーションの基礎となっています。これらの注目を集める開発の多くは、効率や最適化についてあまり考えずに、可能なことの限界に挑戦する企業によって推進されてきました。その結果、新しい AI ツールによって生成されるワークロードは膨大になり、必然的にクラウドで管理されるようになりました。


しかし、ここ半年ほどで状況は変わりつつある。まず、これらすべての最先端の AI ツールを駆動する無秩序に広がる ML モデルが大幅に凝縮されていますが、依然として同じ強力な結果を生成しています。


をインストールしましたビクーニャたとえば、携帯電話のアプリ。これは、ChatGPT のような実行を行う 130 億パラメータのモデルで、携帯電話上でリアルタイムに実行されます。これはクラウド上にはまったくありません。デバイス上に常駐するアプリです。


ビクーニャプロジェクトは、大規模モデルのシステム構成、カリフォルニア大学バークレー校、カリフォルニア大学デービス校、カーネギーメロン大学の共同研究であり、「オープンなデータセット、モデル、システム、評価ツールを共同開発することで、誰もが大規模なモデルにアクセスできるようにする」という使命を掲げています。


これは大手テクノロジー企業が無視していない使命です。 Apple の最新のデスクトップと iPhone には、ML プロセスを高速化する特殊な処理機能が備わっています。 Google と Apple も、ML 向けにソフトウェアを最適化するために多くの取り組みを行っています。


また、スタートアップ企業には、AI/ML をより利用しやすくする方法でハードウェアのパフォーマンスを向上させることに取り組んでいる才能のあるエンジニアがたくさんいます。


サードAIは素晴らしい例です。同社は、CPU を使用して大規模なディープラーニング モデルをトレーニングできるソフトウェア ベースのエンジンを提供しています。 DataStax は数か月間、ThirdAI チームと実験を行っており、彼らが開発したものに感銘を受けました。先週、洗練された大規模言語モデル (LLM) やその他の AI テクノロジーをあらゆる組織が利用できるようにするために、同社との提携を発表しました。データがどこに存在するかに関係なく。 (提携ニュースの詳細を読むここ)。

データに AI を導入する

このような多大な努力とイノベーションのおかげで、AI はクラウドにデータを保管している組織のみが利用できるわけではなくなります。これはプライバシーにとって非常に重要であり、多くの組織がそもそもデータを独自のサーバーに保存している大きな理由です。


過去 18 か月ほどであらゆるものを押し流した AI 変革の波において、すべてはデータです。実際、データがどこにあっても、データのない AI は存在しません。 ThirdAI のようなチームによる取り組みにより、すべての組織が「データに AI を導入する」ことも可能になります。


長い間、企業はその逆のこと、つまりデータを AI に取り込むことを強いられてきました。重要な洞察を得るために分析する前に、データ ウェアハウスやデータ レイクから専用の機械学習プラットフォームにデータを移行するために、膨大なリソース、時間、予算を費やす必要がありました。


その結果、膨大なデータ転送コストが発生し、移行、分析、移行に必要な時間は、組織が新しいパターンを学習し、顧客に対して即座に対応できる速度に影響を与えます。


データへの AI の導入は、DataStax がリアルタイム AI の取り組みで重点的に取り組んできたことです。これは、ML/AI に基づいてアクションを実行し、顧客を喜ばせ、収益を促進する最速の方法だからです。 AI をクラウドだけでなくデータセンターに導入することは、すべての企業が参加できる変革的な AI テクノロジーの波を起こすためのもう 1 つの非常に重要なステップです。


*新しいものについて学ぶDataStax AI パートナー プログラム企業と画期的な AI スタートアップを結び付け、顧客向けの AI アプリケーションの開発と展開を加速します。*


Ed Anuff、DataStax 著


ここでも公開されています。