Les choses évoluent rapidement dans le monde de la technologie des infrastructures. Il n'y a pas si longtemps, l'exécution d'une base de données sur Kubernetes était considérée comme trop délicate pour en valoir la peine. Mais c'était le problème d'hier. Les créateurs d'applications cloud natives sont devenus doués pour exécuter des charges de travail avec état, car Kubernetes est un moyen puissant de créer rapidement et efficacement des centres de données virtuels.
La dernière fois que j'ai écrit à ce sujet, j'ai un peu élargi l'ouverture pour prendre en compte d'autres parties de la pile d'applications dans le centre de données virtuel, en particulier les charges de travail et l'analyse en continu.
Avec l'entrée de ces deux éléments dans le courant dominant de Kubernetes, la discussion sur les cas d'utilisation devient plus intéressante.
Que ferons-nous de ces outils de données fondamentaux si nous y avons accès ? Heureusement, nous n'avons pas à enquêter trop en profondeur, car l'industrie a déjà choisi la direction : les charges de travail AI/ML .
Ce qui motive cela, c'est le besoin de MLOps plus rapides et plus agiles pour prendre en charge
La création et la maintenance de modèles d'apprentissage automatique (ML) sortent du back-office et se rapprochent des utilisateurs en production. Un magasin de fonctionnalités agit comme un pont entre les données et les modèles d'apprentissage automatique, offrant aux modèles un moyen cohérent d'accéder aux données dans les phases hors ligne et en ligne. Il gère les exigences de traitement des données pendant la formation des modèles et fournit un accès en temps réel à faible latence aux modèles pendant la phase en ligne. Cela garantit la cohérence des données pour les deux phases et répond aux exigences en ligne et hors ligne.
La fonction d'explication donne un aperçu de la raison pour laquelle une décision a été prise pour chaque prédiction, offrant l'importance de la caractéristique et mettant en évidence les facteurs du modèle qui ont conduit à un résultat particulier. Cela peut être utilisé pour détecter la dérive et le biais du modèle, qui sont quelques-unes des parties « importantes mais difficiles » de l'apprentissage automatique. Ces fonctionnalités réduisent les efforts impliqués dans les MLOps et renforcent la confiance dans l'application. KServe s'est récemment séparé du projet Google KubeFlow et a été
Complétant les méthodes traditionnelles de recherche de données, la recherche de similarité vectorielle (VSS) est un outil d'apprentissage automatique qui utilise les mathématiques vectorielles pour déterminer à quel point deux choses sont "proches" l'une de l'autre. Cela se fait par le K-plus proche voisin (
Combinez mon
Les charges de travail AI/ML peuvent être quelque chose que vous commencez tout juste à explorer, alors c'est peut-être le meilleur moment pour commencer du bon pied. Les trois domaines mentionnés - service de fonctionnalités, service de modèle et recherche de similarité vectorielle - sont tous couverts dans le livre que j'ai co-écrit avec Jeff Carpenter, "
Également publié ici.