新しい AI システムは信じられないほどの改善を見せており、今日では、何十年も解決されていないと思われていた複雑な問題に取り組むことができます。これらは、50 年前の問題を解決する AI から、現在は創薬を加速するために展開されているタンパク質フォールディングから、開発者がコードを自動的に完成させるのを支援する を使用した最近の生成 AI にまで及びます。 DeepMind の Alpha Fold OpenAI Copilot しかし、これらの AI モデルは多くの場合、トレーニングに使用する巨大なデータセットを必要とし、優れたデータセットには大きな責任が伴います。これは、データが非常に機密になる可能性があるヘルスケア、金融、またはバイオメトリクスに特に当てはまります。 そのため、AI の採用には大きなボトルネックが存在します。革新的なスタートアップやラボは機密データにアクセスして AI モデルをトレーニングしようとしますが、病院などのデータ所有者はセキュリティとプライバシーの理由からデータの共有を拒否しています。 Mithril Security の CEO 兼共同創設者である Daniel Quoc Dung Huynh 氏は、AI とプライバシーを調和させるこれらの課題を認識し、Confidential AI を民主化するという使命を自らに課しました。 は、過去 6 年間、毎日最先端の AI に触れてきました。フランスで最高の工学部である の大学院生として、ダニエルは数学と AI を深く学びました。フランスで最高のビジネススクールである HEC の二重卒業証書のおかげで、彼は高度な応用数学とビジネスの交差点を調べることができました。 Daniel Quoc Dung Huynh エコール ポリテクニック エコール ポリテクニークの労働者階級の数少ない 1% の学生の 1 人として、ダニエルはまた、競争の激しい学問で成功する助けがなかった学生にとって道が障害物で舗装されていたため、失敗に強い考え方を開発することを学びました。環境。 これらのスキルと考え方を備えた Daniel は、Microsoft でプライバシー強化テクノロジ (PET) に取り組んでいるときに AI におけるこれらのプライバシーの課題を目の当たりにしたとき、AI モデルのトレーニング方法を根本的に変える機会を見出しました。 PET は現在のプライバシー パラダイムを変更します。AI 企業やクラウドで共有されるデータは、他の誰にも明確に公開されなくなります。エンドツーエンドの暗号化により、市民や病院などのユーザーは、データの漏洩や悪用を心配することなく、クラウドでホストされている最先端の AI ソリューションの恩恵を受けることができます。 Signal や Whatsapp などの安全なメッセージング アプリは、ユーザーのデータに平文でアクセスすることなくサービスを提供しているため、社会はすでにエンドツーエンドの暗号化ソリューションを採用し始めています。 ただし、高度な暗号化メカニズムを提供して AI のトレーニングと展開をプライバシーに配慮したものにすることは、単純な安全なメッセージング アプリ以上の技術的な課題です。 Microsoft で働いていたとき、Daniel は、使いにくく、興味深いモデルをほとんど実行できず、多くの場合何千倍も遅い膨大なオーバーヘッドを伴うあいまいなソリューションしか見ませんでした。 それにもかかわらず、セキュア エンクレーブと呼ばれるハードウェア ベースのテクノロジは、多くの場合約 20% の合理的な速度低下を課しながら、複雑なワークロードを機密にすることができるため、有望性を示し始めました。それにもかかわらず、セキュリティ、AI、および低レベルのソフトウェア エンジニアリング スキルが必要なため、AI のセキュア エンクレーブを活用することは非常に複雑です。 しかし、セキュア エンクレーブ ベースの AI ソリューションを正しく使用すれば、モデルのトレーニングと展開をユーザー データのプライバシーに配慮したものにすると同時に、AI チームによる展開を迅速かつ簡単に行うことができます。 このビジョンを念頭に置いて、ダニエルは 2021 年 4 月に COO の と CTO の と共に Mithril Security を共同設立しました。このスタートアップの目標はシンプルで、プライバシー バイ デザインの AI ツールを民主化し、データ共有とコラボレーションをスムーズにすることです。 Raphaël Millet Mehdi Bessaa 彼らの製品が十分に高速で、プライバシーを確保しながらアクセスできることを確認するために、安全なエンクレーブがソリューションの中心にあります.さまざまなプロジェクトが Apache 2.0 ライセンスの下でオープンソース化され、透明性、セキュリティを促進し、採用を可能な限りスムーズにします。 彼らの最初の製品である は、プライバシーを保護しながら本番 AI モデルを配置するためのデプロイ ソリューションです。 2 行のコードで AI モデルを機密にするように設計された BlindAI は、 したものにしたり、 を分析したり、 したりするために活用できます。 BlindAI 音声認識をプライバシーに配慮 機密の医療画像 顔認識アルゴリズムを保護 同社の 2 番目の製品である は、データ サイエンティストが機密データを調査して洞察を引き出すためのトレーニング フレームワークです。たとえば、複数の病院からのデータを使用して乳がんを検出する AI モデルをトレーニングするなど、マルチパーティ トレーニングに取り組むためのセキュリティと使いやすさの要件を満たすことができます。 BastionAI わずか 1 年余りで、Mithril Security は 15 人の従業員に成長し、健全な顧客プールを獲得し、プレシードの資金調達ラウンドで 140 万ドルを調達しました。ヘルスケア、セキュリティ、生体認証、広告など、さまざまな分野の顧客とユーザーにサービスを提供し、データが常に保護されるようにします。 Daniel の指導とリーダーシップの下、Mithril Security は、データ AI ライフサイクル全体にわたってエンド ツー エンドのデータ保護を開発することに成功しました。機密データを扱うデータ サイエンティストにとって頼りになるソリューションになるまでの道のりは長く険しいものですが、ダニエルは、データ サイエンティスト向けのアクセス可能で高速かつ安全なソリューションとオープンソース アプローチのためになされた技術的選択は、すでに行われていると考えています。 AI コミュニティの心をつかみます。