Novos sistemas de IA mostraram melhorias incríveis e hoje podem resolver problemas complexos que pensávamos que não seriam resolvidos por décadas. Eles vão desde o Alpha Fold AI da DeepMind para resolver um problema de 50 anos, o dobramento de proteínas, que agora é implantado para acelerar a descoberta de medicamentos, até o recente AI generativo com OpenAI Copilot para ajudar os desenvolvedores a concluir seu código automaticamente.
Mas esses modelos de IA geralmente precisam de enormes conjuntos de dados para serem treinados, e com grandes conjuntos de dados vem uma grande responsabilidade. Isso é especialmente verdadeiro em saúde, finanças ou biometria, onde os dados podem se tornar extremamente confidenciais.
Há, portanto, um enorme gargalo para a adoção de IA, pois startups e laboratórios inovadores tentam obter acesso a dados confidenciais para treinar modelos de IA, mas os proprietários de dados, por exemplo, hospitais, se recusam a compartilhá-los por motivos de segurança e privacidade.
Daniel Quoc Dung Huynh, CEO e cofundador da Mithril Security, viu esses desafios para conciliar IA e privacidade e se propôs a democratizar a IA confidencial.
Daniel Quoc Dung Huynh foi exposto a IA de ponta todos os dias nos últimos 6 anos. Como aluno de pós-graduação na Ecole Polytechnique , a melhor escola de engenharia da França, Daniel estudou profundamente matemática e IA. Graças ao seu diploma duplo na HEC, a melhor escola de negócios da França, ele pôde examinar a interseção entre matemática aplicada avançada e negócios.
Como um dos poucos 1% dos alunos da classe trabalhadora da Ecole Polytechnique, Daniel também aprendeu a se apressar e desenvolver uma mentalidade resiliente a falhas, pois o caminho foi pavimentado com obstáculos para alunos que não tiveram ajuda para ter sucesso em um ambiente acadêmico altamente competitivo. meio Ambiente.
Equipado com essas habilidades e mentalidade, quando Daniel viu esses desafios de privacidade na IA enquanto trabalhava na Microsoft em Privacy Enhancing Technologies (PETs), ele viu uma oportunidade de mudar fundamentalmente a forma como os modelos de IA são treinados.
Os PETs mudam o atual paradigma de privacidade, pois os dados compartilhados com empresas de IA ou na Nuvem não ficam mais expostos de forma clara para mais ninguém. Graças à criptografia de ponta a ponta, usuários como cidadãos ou hospitais podem se beneficiar de soluções de IA de última geração hospedadas na nuvem, sem ter que se preocupar com vazamento de dados ou uso indevido.
A sociedade já começou a adotar soluções criptografadas de ponta a ponta, pois aplicativos de mensagens seguras como Signal ou Whatsapp já prestam seu serviço sem nunca ter acesso aos dados dos usuários em claro.
No entanto, fornecer mecanismos avançados de criptografia para tornar o treinamento e a implantação de IA amigáveis à privacidade é um desafio técnico acima dos aplicativos simples de mensagens seguras. Enquanto trabalhava na Microsoft, Daniel viu apenas soluções obscuras que eram difíceis de usar, mal conseguiam executar modelos interessantes e vinham com uma sobrecarga enorme, muitas vezes milhares de vezes mais lentas.
No entanto, uma tecnologia baseada em hardware chamada enclaves seguros começou a se mostrar promissora, pois poderia tornar as cargas de trabalho complexas confidenciais enquanto impunha uma desaceleração razoável, geralmente em torno de 20%. Aproveitar enclaves seguros para IA é, no entanto, extremamente complexo, pois requer segurança, IA e habilidades de engenharia de software de baixo nível.
Mas, se usadas corretamente, as soluções de IA baseadas em enclave seguro podem tornar o treinamento e a implantação de modelos amigáveis à privacidade dos dados dos usuários, ao mesmo tempo em que são rápidos e fáceis de implantar pelas equipes de IA.
É com essa visão em mente que Daniel fundou a Mithril Security em abril de 2021 com Raphaël Millet , seu COO, e seu CTO, Mehdi Bessaa . O objetivo desta startup é simples, democratizando as ferramentas de IA de privacidade por design para tornar o compartilhamento de dados e a colaboração sem atrito.
Para garantir que seus produtos sejam rápidos o suficiente e acessíveis, garantindo a privacidade, os enclaves seguros estão no centro de suas soluções. Os diferentes projetos foram feitos de código aberto sob uma licença Apache 2.0 para promover transparência, segurança e tornar a adoção o mais suave possível.
BlindAI , seu primeiro produto, é uma solução de implantação para colocar em produção modelos de IA com privacidade. Projetado para tornar os modelos de IA confidenciais em duas linhas de código, o BlindAI pode ser usado para tornar o reconhecimento de fala amigável à privacidade , ser aproveitado para analisar imagens médicas confidenciais ou proteger algoritmos de reconhecimento facial .
BastionAI , seu segundo produto, é uma estrutura de treinamento para permitir que os cientistas de dados explorem e extraiam informações sobre dados confidenciais. Ele é capaz de atender aos requisitos de segurança e facilidade de uso para enfrentar o treinamento de várias partes, por exemplo, para treinar um modelo de IA para detectar câncer de mama usando dados de vários hospitais.
Depois de pouco mais de um ano, a Mithril Security cresceu para 15 funcionários, conquistou um grupo saudável de clientes e levantou US$ 1,4 milhão em sua rodada de financiamento pré-semente. Atende clientes e usuários em diferentes setores, incluindo saúde, segurança, biometria e publicidade, garantindo que os dados estejam sempre protegidos.
Sob a orientação e liderança de Daniel, a Mithril Security conseguiu desenvolver proteção de dados de ponta a ponta durante todo o ciclo de vida dos dados de IA. O caminho para se tornar a solução ideal para cientistas de dados que lidam com dados confidenciais é longo e difícil, mas Daniel acredita que as escolhas tecnológicas feitas para soluções acessíveis, rápidas e seguras para cientistas de dados e a abordagem de código aberto já são conquistando o coração da comunidade de IA.