As coisas mudam rapidamente no mundo da tecnologia de infraestrutura. Não faz muito tempo, executar um banco de dados no Kubernetes era considerado complicado demais para valer a pena. Mas esse foi o problema de ontem. Os criadores de aplicativos nativos de nuvem ficaram bons na execução de cargas de trabalho com estado porque o Kubernetes é uma maneira poderosa de criar centros de dados virtuais com rapidez e eficiência.
A última vez que escrevi sobre isso, ampliei um pouco a abertura para considerar outras partes da pilha de aplicativos no data center virtual – em particular, streaming de cargas de trabalho e análises.
Com esses dois se tornando populares no Kubernetes, a discussão sobre casos de uso fica mais interessante.
O que faremos com essas ferramentas de dados fundamentais se tivermos acesso a elas? Felizmente, não precisamos investigar muito profundamente, porque o setor já escolheu a direção: cargas de trabalho de IA/ML .
O que está impulsionando isso é a necessidade de MLOps mais rápidos e ágeis para dar suporte
A construção e manutenção de modelos de aprendizado de máquina (ML) estão saindo do back office e se aproximando dos usuários na produção. Um armazenamento de recursos atua como uma ponte entre os dados e os modelos de aprendizado de máquina, fornecendo uma maneira consistente para os modelos acessarem os dados nas fases offline e online. Ele gerencia os requisitos de processamento de dados durante o treinamento do modelo e fornece acesso em tempo real de baixa latência aos modelos durante a fase online. Isso garante consistência de dados para ambas as fases e atende aos requisitos online e offline.
O recurso explicador fornece informações sobre por que uma decisão foi tomada para cada previsão, oferecendo a importância do recurso e destacando fatores no modelo que levaram a um determinado resultado. Isso pode ser usado para detectar o desvio e o viés do modelo, que são algumas das partes “importantes, mas difíceis” do aprendizado de máquina. Esses recursos reduzem o esforço envolvido em MLOps e criam confiança no aplicativo. O KServe recentemente se separou do projeto Google KubeFlow e foi
Aumentando as formas tradicionais de encontrar dados, a pesquisa de similaridade vetorial (VSS) é uma ferramenta de aprendizado de máquina que usa matemática vetorial para descobrir o quão "próximos" duas coisas estão uma da outra. Isso é feito por meio do K vizinho mais próximo (
combinar meu
Cargas de trabalho AI/ML podem ser algo que você está apenas começando a explorar, então agora pode ser o melhor momento para começar com o pé direito. As três áreas mencionadas — serviço de recurso, serviço de modelo e pesquisa de similaridade vetorial — são todas abordadas no livro que escrevi em coautoria com Jeff Carpenter, “
Também publicado aqui.