Étiquette : Keith Belanger Étiquette : Keith Belanger Les projets d'IA ont un moyen de surmonter les problèmes de données que les équipes de données utilisaient pour pouvoir travailler.C'est parce que les données analytiques permettent une large marge d'erreur, et l'IA ne le fait tout simplement pas.Les modèles d'IA ne tolèrent pas l'ambiguïté, et les décisions prises à la vitesse de la machine magnifient chaque défaut qui se cache en amont.Ce qui a échoué silencieusement échoue maintenant à haute voix, et souvent publiquement. Les échecs de l’IA sont souvent rejetés comme des douleurs expérimentales.En réalité, ils révèlent la faiblesse des opérations existantes.La vérité inconfortable est que la plupart des organisations de données ne sont pas prêtes opérationnellement à l’IA, peu importe à quel point leurs plates-formes sont modernes ou à quel point leurs modèles semblent sophistiqués. Vous le voyez quand le premier retraitement de modèle échoue parce qu’un pipeline a changé, quand personne ne peut expliquer pourquoi les données d’hier ont l’air différentes de celles d’aujourd’hui, ou quand « il suffit de le redémarrer » devient la réponse par défaut aux problèmes de production. « Surtout, si les données ont des problèmes, alors les données ne sont pas prêtes pour l’IA. » Gartner Gartner Les équipes de données ont besoin d’un nouveau modèle opérationnel Pendant des années, la plupart des organisations ont vécu avec un compromis fragile. Si les pipelines se brisaient occasionnellement, elles pourraient être réparées à temps pour respecter les délais. La qualité des données « assez bonne » était suffisamment bonne. La gouvernance existait quelque part dans une unité partagée. Ce modèle s’appuyait sur les personnes, pas sur les systèmes, pour absorber la complexité. compensé par l’héroïsme : les contrôles manuels, les soirs tardivement et la mémoire institutionnelle ont été transmis de manière informelle de personne à personne. Équipes de données Équipes de données L'approche de l'ère des données analytiques s'effondre lorsque la livraison passe des éditions hebdomadaires aux déploiements multiples par jour. Les modèles consomment continuellement des données, supposent la cohérence et amplifient même de petites déviations.Il n'y a pas de bouton de pause pour effectuer des vérifications manuelles ou confirmer sur les connaissances tribales. « AI-Ready» est réalisable et mesurable Les organisations ne peuvent plus déclarer la préparation sur la base de la confiance ou de l’outilage.Ils doivent commencer à le démontrer par une validation continue, une ligne de conduite, une notation, des règles et une mise en œuvre dans la production. Parce que « AI-ready » n’est pas seulement un sentiment. C’est un état mesurable. fiable Temporaire gouverné Observé reproductibles Cette évolution de la qualité des données nécessite plus que de bonnes intentions ou de documents de meilleures pratiques.Il faut des systèmes conçus pour appliquer la fiabilité par défaut qui peuvent fournir une preuve continue de la fiabilité des données. Le Real Bottleneck est opérationnel, pas technologique La plupart des entreprises ont déjà de puissantes plates-formes de données.Ce qui leur manque, c’est un moyen d’opérationaliser ces plates-formes avec cohérence à la vitesse de l’IA. Les processus manuels ne s’échelonnent pas parce que les humains n’ont qu’à prêter tant d’attention. Les charges de travail de l’IA exigent la répétitivité et la confiance que les données se comporteront de la même manière aujourd’hui qu’hier – et que lorsqu’elles ne le font pas, elles seront immédiatement marquées et corrigées. L'ingénierie logicielle a fait face à ce problème il y a des années. Comme les systèmes deviennent plus complexes et les cycles de libération s'accélèrent, les processus manuels et la vigilance humaine ont cessé d'évoluer. DevOps a changé le jeu en opérationalisant l'automatisation, les tests, l'observabilité et la livraison répétée. L'ingénierie logicielle a fait face à ce problème il y a des années. Comme les systèmes deviennent plus complexes et les cycles de libération s'accélèrent, les processus manuels et la vigilance humaine ont cessé d'évoluer. DevOps a changé le jeu en opérationalisant l'automatisation, les tests, l'observabilité et la livraison répétée. Le volume, la vitesse et le rayon d'échec ont atteint le modèle d'exploitation. DataOps offre aux équipes de données la même rigueur opérationnelle qui a aidé les équipes de logiciels à catapulter dans le 21ème siècle. Les données sont maintenant au même point d’inflexion. Les données sont maintenant au même point d’inflexion. L’opérationnalisation de la confiance est la seule voie à suivre Les organisations qui réussiront avec AI seront celles qui . Traiter la confiance dans les données comme une discipline opérationnelle Traiter la confiance dans les données comme une discipline opérationnelle Cela signifie que les pipelines de données doivent être observées en continu, gérées automatiquement et prouvées dans la production avec l’IA prête. . data products Produits de données Les modèles s’arrêtent dans la production, la confiance dans les sorties s’érode et les équipes cessent de faire confiance aux systèmes qu’elles ont construits. Rencontrez le moment en embrassant et opérationnaliser vos données avec des systèmes conçus pour fournir la confiance à la vitesse de l’IA. Discipline des données Discipline des données Cet article a été publié dans le cadre du programme de blogging d'affaires de HackerNoon. Cet article a été publié dans le cadre du programme de blogging d'affaires de HackerNoon. Cet article a été publié dans HackerNoon's . Business Blogging Program Blogging d’affaires Blogging d’affaires