Com todas as suposições que fazemos sobre os avanços em dados corporativos e tecnologias de nuvem, há um fato simples que muitas vezes é esquecido: a maioria dos dados corporativos mais importantes permanece no data center corporativo.
Existem muitas razões para isso - algumas razoáveis, outras nem tanto. Em alguns casos, é devido à natureza altamente confidencial dos dados, seja em conformidade com a HIPAA, dados bancários confidenciais ou outras questões de privacidade. Em outros casos, os dados residem em sistemas (pense em dados legados de planejamento de recursos empresariais ou dados de pesquisa científica em escala de petabytes) que são difíceis de mover para a nuvem. E às vezes, é apenas inércia. Não é uma ótima desculpa, mas acontece o tempo todo.
Seja qual for o motivo, armazenar dados em racks de servidores corporativos provou ser um obstáculo real para a capacidade de muitas empresas de aproveitar a IA para transformar seus negócios, porque tem sido praticamente impossível fornecer o poder de computação significativo necessário para conduzir a IA em a infraestrutura que sustenta a maioria dos data centers.
Mas há um movimento em andamento, por meio de uma pequena constelação de startups e grandes fabricantes de dispositivos, para otimizar modelos de aprendizado de máquina e disponibilizar IA para empresas cujos dados não estão na nuvem. Vai ser uma virada de jogo.
A unidade de processamento gráfico, ou GPU, foi desenvolvida para lidar com aplicativos de processamento de vídeo de alta intensidade, como os exigidos pelos videogames modernos e filmes de alta resolução. Mas a capacidade desses processadores de dividir tarefas complexas em tarefas menores e executá-las em paralelo também torna esses circuitos integrados específicos de aplicativos (ASICs) de alta potência muito úteis para inteligência artificial. Afinal, a IA requer fluxos massivos de dados para refinar e treinar modelos de aprendizado de máquina.
As CPUs, por outro lado, são os cérebros flexíveis dos servidores e, como tal, são construídas para lidar com uma ampla variedade de operações, como acessar dados do disco rígido ou mover dados do cache para o armazenamento, mas não têm a capacidade de execute essas tarefas em paralelo (processadores multicore podem lidar com tarefas paralelas, mas não no nível de GPUs). Eles simplesmente não são criados para lidar com o tipo de cargas de trabalho de alto rendimento que a IA exige.
As GPUs de alto desempenho são muito caras e, até recentemente, eram escassas, graças à dependência dos criptomineiros desses chips de alto desempenho. Na maioria das vezes, eles são o domínio dos provedores de nuvem. De fato, os serviços de computação de alto desempenho são um grande motivo para as empresas moverem seus dados para a nuvem. do Google
As GPUs têm sido a base da onda de inovação da IA que recentemente assumiu as manchetes. Muitos desses desenvolvimentos de alto nível foram impulsionados por empresas que se esforçam para alcançar o que é possível sem pensar muito em eficiência ou otimização. Consequentemente, as cargas de trabalho produzidas por novas ferramentas de IA têm sido enormes e, portanto, por necessidade, gerenciadas na nuvem.
Mas nos últimos seis meses, mais ou menos, isso está mudando. Por um lado, os amplos modelos de ML que conduzem todas essas ferramentas de IA de ponta estão se condensando significativamente, mas ainda gerando os mesmos resultados poderosos.
eu instalei o
O projeto Vicunha surgiu a partir da
É uma missão que a grande tecnologia não está ignorando. Os desktops e iPhones mais recentes da Apple têm recursos de processamento especializados que aceleram os processos de ML. O Google e a Apple também estão trabalhando muito para otimizar seus softwares para ML.
Há também uma tonelada de engenheiros talentosos em startups que estão trabalhando para tornar o hardware mais eficiente de uma forma que torne a IA/ML mais acessível.
Por causa de todo esse trabalho árduo e inovação, a IA não estará mais disponível exclusivamente para organizações com dados na nuvem. Isso é extremamente importante para a privacidade, que é um grande motivo pelo qual muitas organizações mantêm seus dados em seus próprios servidores em primeiro lugar.
Com a onda de transformação da IA que varreu tudo nos últimos 18 meses, tudo gira em torno dos dados. De fato, não há IA sem dados, onde quer que residam. Os esforços de equipes como a ThirdAI também permitem que todas as organizações “tragam a IA para os dados”.
Por muito tempo, as empresas foram obrigadas a fazer o contrário: trazer seus dados para a IA. Eles tiveram que dedicar muitos recursos, tempo e orçamento para migrar dados de data warehouses e data lakes para plataformas dedicadas de aprendizado de máquina antes de analisar os principais insights.
Isso resulta em custos significativos de transferência de dados, e o tempo necessário para migrar, analisar e migrar afeta a rapidez com que as organizações podem aprender novos padrões e agir com os clientes no momento.
Trazer IA para os dados é algo em que nos concentramos muito na DataStax com nossos esforços de IA em tempo real , porque é a maneira mais rápida de realizar ações com base em ML/IA, encantar os clientes e gerar receita. Trazer a IA para o data center, e não apenas para a nuvem, é outro passo muito importante para tornar a onda transformacional da tecnologia de IA algo da qual todas as empresas possam fazer parte.
*Conheça o novo
Por Ed Anuff, DataStax
Publicado também aqui .