paint-brush
Daniel Quoc Dung Huynh, un emprendedor que aboga por una IA de código abierto respetuosa con la privacidadby@craiglebrau
605
605

Daniel Quoc Dung Huynh, un emprendedor que aboga por una IA de código abierto respetuosa con la privacidad

Craig Lebrau4m2022/11/16
Read on Terminal Reader

Daniel Quoc Dung Huynh, director ejecutivo y cofundador de Mithril Security, está lanzando una startup para democratizar las herramientas de IA de privacidad por diseño. Mithril está desarrollando protección de datos de extremo a extremo durante todo el ciclo de vida de la IA, lo que garantiza que todos los datos estén protegidos en todo momento. La startup está trabajando con Microsoft en Tecnologías de mejora de la privacidad (PET) y BlindAI, una solución de implementación para hacer que los modelos de IA sean confidenciales en dos líneas de código.
featured image - Daniel Quoc Dung Huynh, un emprendedor que aboga por una IA de código abierto respetuosa con la privacidad
Craig Lebrau HackerNoon profile picture

Los nuevos sistemas de IA han mostrado mejoras increíbles y hoy pueden abordar problemas complejos que pensamos que no se abordarían durante décadas. Estos van desde Alpha Fold AI de DeepMind para resolver un problema de 50 años, el plegamiento de proteínas, que ahora se implementa para acelerar el descubrimiento de fármacos, hasta la reciente IA generativa con OpenAI Copilot para ayudar a los desarrolladores a completar su código automáticamente.

Pero esos modelos de IA a menudo necesitan grandes conjuntos de datos para capacitarse, y con grandes conjuntos de datos conlleva una gran responsabilidad. Esto es especialmente cierto en el cuidado de la salud, las finanzas o la biometría, donde los datos pueden volverse extremadamente confidenciales.

Por lo tanto, existe un gran cuello de botella para la adopción de IA, ya que las nuevas empresas y los laboratorios innovadores intentan obtener acceso a datos confidenciales para entrenar modelos de IA, pero los propietarios de datos, por ejemplo, hospitales, se niegan a compartirlos por razones de seguridad y privacidad.

Daniel Quoc Dung Huynh, director ejecutivo y cofundador de Mithril Security, vio estos desafíos para conciliar la IA y la privacidad y se propuso la misión de democratizar la IA confidencial.

Daniel Quoc Dung Huynh ha estado expuesto a la IA de vanguardia todos los días durante los últimos 6 años. Como estudiante de posgrado en Ecole Polytechnique , la mejor escuela de ingeniería de Francia, Daniel estudió profundamente las matemáticas y la IA. Gracias a su doble diploma de HEC, la mejor escuela de negocios de Francia, pudo examinar la intersección entre las matemáticas aplicadas avanzadas y los negocios.

Como uno de los pocos estudiantes del 1% de la clase trabajadora de la Ecole Polytechnique, Daniel también aprendió a esforzarse y a desarrollar una mentalidad resistente a los fracasos, ya que el camino estaba lleno de obstáculos para los estudiantes que no tenían ayuda para tener éxito en un entorno académico altamente competitivo. ambiente.

Equipado con esas habilidades y mentalidad, cuando Daniel vio esos desafíos de privacidad en IA mientras trabajaba en Microsoft en Tecnologías de mejora de la privacidad (PET), vio una oportunidad de cambiar fundamentalmente la forma en que se entrenan los modelos de IA.

Los PET cambian el paradigma de privacidad actual, ya que los datos compartidos con empresas de IA o en la nube ya no están expuestos de forma clara a nadie más. Gracias al cifrado de extremo a extremo, los usuarios, como ciudadanos u hospitales, pueden beneficiarse de soluciones de inteligencia artificial de última generación alojadas en la nube, sin tener que preocuparse por la fuga o el uso indebido de datos.

La sociedad ya ha comenzado a adoptar soluciones cifradas de extremo a extremo, ya que las aplicaciones de mensajería segura como Signal o Whatsapp ya brindan su servicio sin tener nunca acceso a los datos de los usuarios en claro.

Sin embargo, proporcionar mecanismos de encriptación avanzados para hacer que el entrenamiento y la implementación de la IA sean amigables con la privacidad es un desafío técnico superior a las simples aplicaciones de mensajería segura. Mientras trabajaba en Microsoft, Daniel solo vio soluciones oscuras que eran difíciles de usar, apenas podían ejecutar modelos interesantes y tenían una sobrecarga enorme, a menudo miles de veces más lenta.

No obstante, una tecnología basada en hardware llamada enclaves seguros comenzó a mostrarse prometedora, ya que podía hacer que las cargas de trabajo complejas fueran confidenciales al mismo tiempo que imponía una ralentización razonable, a menudo de alrededor del 20 %. Sin embargo, aprovechar los enclaves seguros para la IA es extremadamente complejo, ya que requiere habilidades de seguridad, IA e ingeniería de software de bajo nivel.

Pero si se usan correctamente, las soluciones de IA basadas en enclaves seguros podrían hacer que el entrenamiento y la implementación de modelos sean amigables con la privacidad de los datos de los usuarios, mientras que los equipos de IA pueden implementarlos de manera rápida y fácil.

Con esta visión en mente, Daniel cofundó Mithril Security en abril de 2021 con Raphaël Millet , su COO, y su CTO, Mehdi Bessaa . El objetivo de esta startup es simple, democratizar las herramientas de IA de privacidad por diseño para hacer que el intercambio de datos y la colaboración no tengan fricciones.

Para asegurarse de que sus productos sean lo suficientemente rápidos y accesibles al tiempo que garantizan la privacidad, los enclaves seguros son el núcleo de sus soluciones. Los diferentes proyectos se han hecho de código abierto bajo una licencia Apache 2.0 para fomentar la transparencia, la seguridad y hacer que la adopción sea lo más fluida posible.

BlindAI , su primer producto, es una solución de implementación para poner en producción modelos de IA con privacidad. Diseñado para hacer que los modelos de IA sean confidenciales en dos líneas de código, BlindAI puede usarse para hacer que el reconocimiento de voz sea amigable con la privacidad , aprovecharse para analizar imágenes médicas confidenciales o algoritmos seguros de reconocimiento facial .

BastionAI , su segundo producto, es un marco de capacitación que permite a los científicos de datos explorar y extraer información sobre datos confidenciales. Es capaz de responder a los requisitos de seguridad y facilidad de uso para abordar la capacitación de múltiples partes, por ejemplo, para entrenar un modelo de IA para detectar el cáncer de mama utilizando datos de múltiples hospitales.

Después de poco más de un año, Mithril Security creció a 15 empleados, ganó un grupo saludable de clientes y recaudó $ 1.4M en su ronda de financiación Pre-Seed. Atiende a clientes y usuarios en diferentes sectores, incluidos salud, seguridad, biometría y publicidad, asegurando que los datos estén protegidos en todo momento.

Bajo la guía y el liderazgo de Daniel, Mithril Security ha logrado desarrollar una protección de datos integral durante todo el ciclo de vida de la IA de datos. El camino para convertirse en la solución de referencia para los científicos de datos que manejan datos confidenciales es largo y difícil, pero Daniel cree que las elecciones tecnológicas realizadas, para soluciones accesibles, rápidas y seguras para científicos de datos, y el enfoque de código abierto, ya están disponibles. ganarse el corazón de la comunidad de IA.