Você está procurando em seu iPhone uma foto específica de seu amigo, tirada alguns anos atrás. Existem milhares de imagens para pesquisar, mas o aplicativo Apple Photo se concentra na pessoa certa e, pronto, em segundos você encontra a foto que está procurando.
Há muito trabalho nos bastidores para fazer isso acontecer, incluindo reconhecimento facial e análise de imagem e marcação automática, reunindo-se para economizar esforço fazendo inferências sobre o que é necessário ou desejado e, em seguida, agindo sobre essas inferências em tempo real.
Empresas como a Apple – e Google, FedEx, Uber, Netflix também – passaram anos construindo sistemas e arquiteturas que permitem que as experiências do usuário se tornem mais fáceis, pessoais e intuitivas. Em alguns casos, a inteligência artificial permite que decisões importantes sejam tomadas quase instantaneamente ou que previsões ocorram em tempo real, capacitando uma empresa a melhorar os resultados no momento.
Isso não passa despercebido no universo mais amplo de empresas: de acordo com uma
Então, por que, para a maioria das organizações, criar aplicativos de IA bem-sucedidos é um grande desafio? Pode ser resumido a três grandes obstáculos: Os dados errados, na infraestrutura errada, na hora errada.
Muitos obstáculos impedem a integração bem-sucedida da IA em aplicativos em tempo real, mas a maioria está relacionada a um elemento central: os dados.
Muitos sistemas tradicionais de ML/IA e os resultados que eles produzem dependem de data warehouses e processamento em lote. O resultado: uma gama complexa de tecnologias, movimentos de dados e transformações são necessárias para “trazer” esses dados históricos para sistemas de aprendizado de máquina.
Os dados que são alimentados em um modelo de ML são chamados de recursos (propriedades mensuráveis que podem ser usadas para análise), que geralmente são baseados nos dados armazenados em um banco de dados do aplicativo ou gravados em arquivos de log. Eles geralmente exigem transformações, como escalar valores ou cálculos com base em registros anteriores (por exemplo, uma média móvel no momento em que um registro foi gerado).
Isso geralmente retarda o fluxo de dados da entrada para a decisão e para a saída, resultando em oportunidades perdidas que podem resultar em rotatividade de clientes ou padrões reconhecidos de ameaças à segurança cibernética que não são detectados e não mitigados. Os desafios podem ser resumidos como ter conjuntos de dados inadequados, apoiados por infraestrutura desalinhada que se move muito lentamente.
Devido ao grande volume de dados (e aos custos relacionados), eles devem ser agregados para facilitar o transporte e a disponibilidade. Simplificando, os dados agregados ou excessivamente transformados impedem que as organizações identifiquem facilmente as ações adequadas em tempo real e diminuem a possibilidade de alcançar um resultado preferido, seja um produto sugerido, uma rota de entrega de pacote atualizada ou uma configuração ajustada em uma máquina em uma fábrica . Isso diminui a capacidade de uma organização de encontrar respostas para novas perguntas, prever resultados ou se adaptar a um contexto em rápida evolução.
Os cientistas de dados são forçados a usar conjuntos de dados de baixa granularidade que gerarão previsões vagas que, por sua vez, não levam ao impacto comercial esperado, especialmente em contextos discretos como uma sessão de cliente. Eles também podem não ser informados quando os aplicativos são reconfigurados ou as fontes de dados evoluem, levando a eventos essenciais que não alimentam os recursos. Esses dados ausentes levam a uma tomada de decisão desinformada quando se trata de escolher modelos. Isso leva a um desempenho de previsão menos preciso ou, pior ainda, modelos que usam dados incorretos podem levar a decisões erradas.
Finalmente, a agregação é focada na criação de recursos existentes. A nova engenharia de recursos — processamento de dados necessários para escolher e treinar modelos — exige voltar aos dados brutos para diferentes agregações. Esse processamento adicional desacelera significativamente o trabalho dos cientistas de dados, estendendo o processo de experimentação.
O segundo desafio está relacionado às atuais infraestruturas de ML que impulsionam as iniciativas de IA e sua incapacidade de processar conjuntos de dados em escala. A qualidade dos modelos e seus resultados aumentam com o volume de dados de eventos ingeridos. Muitas vezes, as organizações precisam processar grandes volumes de eventos, com os quais as infraestruturas legadas não conseguem lidar.
A sequência de modelos de treinamento e de servi-los para executar a inferência torna-se complexa, especialmente porque requer movimentos de dados entre cada um. A tentativa de lidar com a escala necessária para previsões de alta qualidade leva as arquiteturas tradicionais a seus pontos de ruptura. Também é meticulosamente lento, não confiável e caro. Tudo isso ameaça o valor e o impacto de aplicativos cada vez mais críticos.
Outro obstáculo surge do processamento de dados tarde demais para causar qualquer impacto significativo. As arquiteturas atuais exigem processamento de dados por meio de vários sistemas para atender a um modelo, e isso introduz latência que afeta as iniciativas de IA de várias maneiras:
A saída do modelo não pode alterar o curso de uma situação em desenvolvimento. Por exemplo, ele propõe uma oferta ao cliente em um ponto em que a taxa de conversão diminuiu e o cliente pode ter comprado outra coisa.
O tempo que leva para servir modelos e obter um resultado não corresponde às expectativas de uma experiência digital ou processo automatizado. Às vezes, podem passar dias antes que os dados estejam prontos para processamento. Em mercados altamente competitivos, dados tão antigos são, na melhor das hipóteses, irrelevantes e, na pior das hipóteses, perigosos (considere um aplicativo de compartilhamento de carona que aplica preços súbitos durante uma crise ou desastre).
Os cientistas de dados não têm acesso aos dados mais recentes. Isso pode afetar o resultado dos modelos e pode exigir que os cientistas de dados gastem um tempo valioso buscando fontes ou pontos de dados adicionais.
Muitas infraestruturas de ML atuais não podem atender a aplicativos porque são muito caras, complexas e lentas. E as mudanças regulatórias podem eventualmente exigir que as organizações forneçam explicações mais detalhadas sobre como os modelos foram treinados e por que chegaram a uma determinada decisão. Esse nível de visibilidade é impossível com as arquiteturas atuais devido ao processamento, agregação e variedade de ferramentas envolvidas.
O problema com muitas infraestruturas está na jornada que os dados devem seguir até o aplicativo orientado por IA. A resposta para o problema, simplesmente, é fazer o oposto.
Líderes como as empresas mencionadas no início deste artigo conseguem agregar grandes quantidades de dados em tempo real de clientes, dispositivos, sensores ou parceiros à medida que se movem por seus aplicativos. Esses dados, por sua vez, são usados para treinar e servir seus modelos. Essas empresas atuam com base nesses dados no momento, atendendo a milhões de clientes em tempo real.
Outra peça crítica para o sucesso dos líderes é o fato de eles coletarem todos os dados no nível mais granular — como eventos com registro de data e hora. Isso significa que eles não têm apenas muitos dados; eles também podem entender o que aconteceu e quando aconteceu, ao longo do tempo.
Empresas líderes como Netflix, FedEx e Uber “trazem IA para onde os dados estão” para que possam entregar as inferências onde o aplicativo reside. Em outras palavras, eles incorporam seus modelos de ML em seus aplicativos, agregam eventos em tempo real por meio de serviços de streaming e expõem esses dados aos modelos de ML. E eles têm um banco de dados (no caso dos três líderes mencionados acima, é o banco de dados NoSQL de código aberto e alto rendimento
Com a plataforma de dados unificada certa, as iniciativas de ML têm a infraestrutura certa e os dados certos. Engenheiros de dados e cientistas de dados podem “sair de seus silos” e alinhar seus processos de engenharia de recursos, experimentação de modelos, treinamento e inferência para previsões de energia. Embora esses processos ainda exijam muitas ferramentas, todos trabalham com a mesma base de dados.
Alimentados por enormes quantidades de dados de eventos para atender a modelos e aplicativos, os aplicativos mais bem-sucedidos alimentados por IA se diferenciam e lideram melhorando constantemente as experiências que fornecem aos usuários finais. Sua capacidade de atender a milhões de clientes e de se tornarem mais inteligentes permite que eles definam os mercados em que atuam.
Saiba como o DataStax habilita a IA em tempo real
Por Ed Anuff.
Ed é diretor de produtos da DataStax. Ele tem mais de 25 anos de experiência como líder de produtos e tecnologia em empresas como Google, Apigee, Six Apart, Vignette, Epicentric e Wired.
Publicado também aqui .