paint-brush
Daniel Quoc Dung Huynh, un entrepreneur plaidant pour une IA open source respectueuse de la vie privéeby@craiglebrau
605
605

Daniel Quoc Dung Huynh, un entrepreneur plaidant pour une IA open source respectueuse de la vie privée

Craig Lebrau4m2022/11/16
Read on Terminal Reader

Daniel Quoc Dung Huynh, PDG et co-fondateur de Mithril Security, lance une startup pour démocratiser les outils d'IA de confidentialité dès la conception. Mithril développe une protection des données de bout en bout sur l'ensemble du cycle de vie de l'IA, garantissant que toutes les données sont protégées à tout moment. La startup travaille avec Microsoft sur les Privacy Enhancing Technologies (PETs) et BlindAI, une solution de déploiement pour rendre les modèles d'IA confidentiels en deux lignes de code.
featured image - Daniel Quoc Dung Huynh, un entrepreneur plaidant pour une IA open source respectueuse de la vie privée
Craig Lebrau HackerNoon profile picture

Les nouveaux systèmes d'IA ont montré des améliorations incroyables et peuvent aujourd'hui résoudre des problèmes complexes que nous pensions rester sans réponse depuis des décennies. Celles-ci vont de l'IA Alpha Fold de DeepMind pour résoudre un problème vieux de 50 ans, le repliement des protéines, qui est maintenant déployé pour accélérer la découverte de médicaments, à la récente IA générative avec OpenAI Copilot pour aider les développeurs à compléter leur code automatiquement.

Mais ces modèles d'IA nécessitent souvent d'énormes ensembles de données sur lesquels s'entraîner, et de grands ensembles de données entraînent une grande responsabilité. Cela est particulièrement vrai dans les domaines de la santé, de la finance ou de la biométrie, où les données peuvent devenir extrêmement confidentielles.

Il existe donc un énorme goulot d'étranglement pour l'adoption de l'IA, car les startups et les laboratoires innovants tentent d'accéder à des données sensibles pour former des modèles d'IA, mais les propriétaires de données, par exemple les hôpitaux, refusent de les partager pour des raisons de sécurité et de confidentialité.

Daniel Quoc Dung Huynh, PDG et co-fondateur de Mithril Security, a vu ces défis pour concilier l'IA et la vie privée et s'est donné pour mission de démocratiser l'IA confidentielle.

Daniel Quoc Dung Huynh a été exposé quotidiennement à une IA de pointe au cours des 6 dernières années. En tant qu'étudiant diplômé de l' Ecole Polytechnique , la meilleure école d'ingénieurs de France, Daniel a étudié en profondeur les mathématiques et l'IA. Grâce à son double diplôme avec HEC, la meilleure école de commerce de France, il a pu étudier l'intersection entre les mathématiques appliquées avancées et le commerce.

En tant que l'un des rares 1% d'étudiants issus de la classe ouvrière de l'Ecole Polytechnique, Daniel a également appris à bousculer et à développer un état d'esprit résistant aux échecs, car la voie était pavée d'obstacles pour les étudiants qui n'avaient aucune aide pour réussir dans un milieu universitaire très compétitif. environnement.

Doté de ces compétences et de cet état d'esprit, lorsque Daniel a vu ces défis de confidentialité dans l'IA alors qu'il travaillait chez Microsoft sur les technologies d'amélioration de la confidentialité (PET), il a vu une opportunité de changer fondamentalement la façon dont les modèles d'IA sont formés.

Les PET changent le paradigme actuel de la confidentialité, car les données partagées avec des sociétés d'IA ou dans le Cloud ne sont plus exposées en clair à qui que ce soit d'autre. Grâce au chiffrement de bout en bout, les utilisateurs tels que les citoyens ou les hôpitaux peuvent bénéficier de solutions d'IA de pointe hébergées dans le Cloud, sans avoir à se soucier des fuites de données ou de l'utilisation abusive.

La société a déjà commencé à adopter des solutions cryptées de bout en bout, car des applications de messagerie sécurisée comme Signal ou Whatsapp fournissent déjà leur service sans jamais avoir accès aux données des utilisateurs en clair.

Cependant, fournir des mécanismes de cryptage avancés pour rendre la formation et le déploiement de l'IA respectueux de la vie privée est un défi technique qui dépasse les simples applications de messagerie sécurisées. Alors qu'il travaillait chez Microsoft, Daniel n'a vu que des solutions obscures qui étaient difficiles à utiliser, étaient à peine capables d'exécuter des modèles intéressants et entraînaient des frais généraux énormes, souvent des milliers de fois plus lents.

Néanmoins, une technologie basée sur le matériel appelée enclaves sécurisées a commencé à être prometteuse car elle pouvait rendre confidentielles les charges de travail complexes tout en imposant un ralentissement raisonnable, souvent autour de 20 %. L'exploitation d'enclaves sécurisées pour l'IA est néanmoins extrêmement complexe, car elle nécessite des compétences en sécurité, en IA et en ingénierie logicielle de bas niveau.

Mais si elles sont utilisées correctement, les solutions d'IA basées sur des enclaves sécurisées pourraient rendre la formation et le déploiement de modèles respectueux de la confidentialité pour les données des utilisateurs, tout en étant rapides et faciles à déployer par les équipes d'IA.

C'est avec cette vision en tête que Daniel a cofondé Mithril Security en avril 2021 avec Raphaël Millet son COO, et son CTO, Mehdi Bessaa . L'objectif de cette startup est simple, démocratisant les outils d'IA de confidentialité dès la conception pour rendre le partage de données et la collaboration sans friction.

Pour s'assurer que leurs produits sont suffisamment rapides et accessibles tout en garantissant la confidentialité, les enclaves sécurisées sont au cœur de leurs solutions. Les différents projets ont été rendus open-source sous une licence Apache 2.0 pour favoriser la transparence, la sécurité et rendre l'adoption aussi fluide que possible.

BlindAI , leur premier produit, est une solution de déploiement pour mettre en production des modèles d'IA en toute confidentialité. Conçu pour rendre les modèles d'IA confidentiels en deux lignes de code, BlindAI peut être utilisé pour rendre la reconnaissance vocale respectueuse de la vie privée , être exploité pour analyser des images médicales confidentielles ou sécuriser des algorithmes de reconnaissance faciale .

BastionAI , leur deuxième produit, est un cadre de formation permettant aux scientifiques des données d'explorer et d'extraire des informations sur des données confidentielles. Il est capable de répondre aux exigences de sécurité et de facilité d'utilisation pour s'attaquer à la formation multipartite, par exemple pour former un modèle d'IA pour détecter le cancer du sein en utilisant les données de plusieurs hôpitaux.

Après un peu plus d'un an, Mithril Security est passé à 15 employés, a gagné un solide bassin de clients et a levé 1,4 million de dollars lors de son cycle de financement pré-amorçage. Il sert des clients et des utilisateurs dans différents secteurs, notamment la santé, la sécurité, la biométrie et la publicité, en veillant à ce que les données soient protégées à tout moment.

Sous la direction et le leadership de Daniel, Mithril Security a réussi à développer une protection des données de bout en bout sur l'ensemble du cycle de vie de l'IA des données. Le chemin pour devenir la solution incontournable pour les data scientists manipulant des données confidentielles est long et difficile, mais Daniel estime que les choix technologiques faits, pour des solutions accessibles, rapides et sécurisées pour les data scientists, et l'approche open-source, sont déjà gagner le cœur de la communauté de l'IA.