paint-brush
ChatGPT est une énorme victoire pour les entreprises d'IA conversationnelle (et leurs clients) - Voici pourquoipar@IsraelK
2,509 lectures
2,509 lectures

ChatGPT est une énorme victoire pour les entreprises d'IA conversationnelle (et leurs clients) - Voici pourquoi

par Israel Krush8m2023/01/02
Read on Terminal Reader

Trop long; Pour lire

ChatGPT est le chatbot polyvalent le plus avancé au monde, issu du grand modèle de langage (LLM) GPT-3.5. Il représente une itération d'InstructGPT, qui a été mis en ligne en janvier 2022 et a créé des vagues similaires mais plus petites dans l'espace conversationnel de l'IA. Alors que les barrières ont certainement été brisées dans la compréhension du langage naturel (NLU), les prouesses conversationnelles de ChatGPT ne peuvent pas aller plus loin.
featured image - ChatGPT est une énorme victoire pour les entreprises d'IA conversationnelle (et leurs clients) - Voici pourquoi
Israel Krush HackerNoon profile picture
0-item

Lancé par OpenAI le 30 novembre 2022, ChatGPT a déjà rassemblé 1 million d'utilisateurs en tant que plate-forme technologique à la croissance la plus rapide de tous les temps, mettant le feu à Internet avec une IA générative de niveau supérieur qui captive l'imagination des ingénieurs, des linguistes, des spécialistes du marketing et des étudiants. , et plus.


À la base, ChatGPT est le chatbot à usage général le plus avancé au monde, issu du grand modèle de langage (LLM) GPT-3.5. Il représente une itération d'InstructGPT, qui a été mis en ligne en janvier 2022 et a fait des vagues similaires mais plus petites dans l'espace conversationnel de l'IA. GPT-3.5 est une variante du modèle GPT-3, formé sur une large concoction d'extraits et de codes sélectionnés, à hauteur de 175 milliards de paramètres, fin 2021. Les résultats, jusqu'à présent, ont été plus qu'impressionnants.


ChatGPT peut exploiter la puissance de Shakespeare pour écrire des sonnets, formuler des dissertations de niveau collégial à partir de textes complexes, proposez une comédie et un divertissement créatifs, y compris des paroles de rap obscures, et surtout, répondez à des questions de connaissances générales très sophistiquées - pensez que Google Assistant rencontre un Quora automatisé.


Il a été présenté comme le boulet de démolition de l'IA pour le bloc de l'écrivain et le nouveau moteur de recherche extraordinaire. Il ne fait aucun doute que la capacité époustouflante de ChatGPT à générer du contenu et la rétention de contexte qui se déroule tout au long des conversations sont inégalées. Mais, bien que les cas d'utilisation destinés aux consommateurs soient clairs, il reste beaucoup à désirer avec la dernière merveille d'OpenAI en ce qui concerne les entreprises et la mise en œuvre B2B, ou B2B2C, dans le monde réel.

ChatGPT est-il adapté aux entreprises ?

ChatGPT (et/ou tout autre chatbot basé sur LLM) est un ingrédient majeur de la recette, pas tout le plat. Alors que les barrières ont certainement été brisées dans la compréhension du langage naturel (NLU), les prouesses conversationnelles de ChatGPT ne peuvent pas aller plus loin. Statistiquement précis ne suffit pas - proche de correct, pour les secteurs verticaux sensibles tels que la santé et le gouvernement, est un non-démarreur pour la mise en œuvre en entreprise.


L'autre moitié de la recette, pour les cas d'utilisation métier, associera un accès en temps réel à des connaissances organisationnelles spécialisées (leurs données propriétaires) à une logique métier dynamique (leurs processus internes et externes en constante évolution), afin d'assurer la précision lors de la navigation de leurs utilisateurs. pour atteindre leurs objectifs. Sans un ingrédient clé supplémentaire dans le mélange, l'utilisation de ChatGPT ou de tout autre chatbot basé sur LLM n'est tout simplement pas une option - alors en attendant, attendez-vous à ce que les organisations commandent différentes solutions d'entreprise au menu.


Entrez : les entreprises d'IA conversationnelles existantes.


Les chefs étoilés Michelin ne cultivent pas leurs propres tomates, mais ils savent très bien comment trouver le meilleur - de la même manière que la plupart des solutions d'IA conversationnelles ne réinventent pas la roue avec STT (Speech-to-Text) et TTS (Text -to-Speech), optant plutôt pour la source la plus puissante déjà existante auprès de Google ou Microsoft, les entreprises d'IA conversationnelle intégreront également GPT-3.5, désormais le meilleur grand modèle de langage au monde, dans leur pile conversationnelle.


Ceux qui le feront de manière transparente, tout en donnant la priorité à la sécurité et à la précision pour leurs clients, sortiront gagnants de la nouvelle ère de l'IA générative et conversationnelle. C'est là que la vraie magie opère pour les entreprises.

Les 5 ingrédients clés de l'IA conversationnelle d'entreprise

Explorons à quoi ressemble la coexistence entre les solutions d'IA conversationnelles actuelles et ChatGPT. Tout d'abord, nous couvrirons ce dont l'IA conversationnelle de qualité professionnelle a besoin pour un déploiement réussi. Afin d'être viable pour les entreprises et autres organisations « lourdes en informations », l'IA conversationnelle doit cocher 5 cases clés :


  1. Connaissances personnalisées en temps réel — Afin de prendre des décisions fondées sur des données, y compris la prise de rendez-vous avec des médecins ou la recherche d'informations techniques sur les produits, les utilisateurs exigent des informations commerciales et sur les produits instantanément mises à jour et précises, généralement capturées via des API. Ces ensembles de données et règles métier sont intrinsèquement uniques à chaque organisation individuelle, et au-delà de la compréhension des connaissances de « sens commun » comme ChatGPT le fait efficacement, leurs ontologies dynamiques devraient idéalement être absorbées par un graphe de connaissances. Pour ChatGPT, l'accès à ces informations spécifiques au domaine et même à l'organisation est inexistant - et les informations qu'il pourrait donner, comme indiqué précédemment, sont basées sur un grand modèle de langage qui a été formé sur des paramètres à partir de 2021, rendant souvent le données non pertinentes au mieux. La mise à jour automatique de la base de connaissances d'une organisation, une compétence que l'on ne trouve que dans quelques sociétés d'IA conversationnelle d'entreprise, est nécessaire pour la fourniture minute par minute de services numériques.


    Pour les organisations qui ont donné la priorité aux cas d'utilisation du service client et à la personnalisation dans le cadre de leurs déploiements, cela ajoute une autre couche de connaissances manquantes - les données générales doivent être facilement intégrées à la fois au contexte conversationnel en cours et aux préférences individuelles des clients enregistrées dans, disons, un CRM comme Salesforce. Lorsque vous utilisez uniquement les informations génériques et obsolètes de LLM, il s'agit d'un obstacle bien documenté, car les assistants IA en action ne pourront pas apprendre ou être recyclés à mesure que de nouveaux points de données et des scénarios évolutifs sont rencontrés.


  2. Explicabilité - En 2021, nous avons couvert GPT-3, et comme pour la plupart des réseaux de neurones, il représentait une boîte noire avec laquelle il serait difficile de comprendre le raisonnement derrière les sorties conversationnelles réelles. GPT-3.5, sur lequel ChatGPT est basé, souffre du même manque de visibilité. Bien sûr, les humains qui construisent ChatGPT peuvent contrôler les entrées (les données qui sont ingérées) et être témoins des sorties qui sont produites, mais malheureusement, nous ne pouvons pas comprendre comment différentes variables et paramètres sont combinés pour créer ces sorties.

ChatGPT, et le LLM sur lequel il est basé, est à juste titre impressionnant en raison de sa capacité à répondre correctement à une multitude de questions complexes, mais il génère également une tonne de réponses inexactes en raison de données obsolètes et de la possibilité d'être amené à fournir des réponses biaisées. Lorsque l'assistant échoue, il n'y a aucune responsabilité - il n'y a aucun moyen de déboguer le problème en cours ou de retracer/identifier la source de la sortie inexacte. En termes simples, ChatGPT ne sait pas ce qu'il ne sait pas et, en outre, ne peut pas contester les présomptions proposées par les utilisateurs.


L'une des principales raisons pour lesquelles les entreprises ont commencé à explorer les technologies des graphes de connaissances est d'éviter ce manque de transparence et d'explicabilité des données. Toute interface utilisateur qui ne peut pas être itérée et révisée n'est ni durable ni évolutive dans un environnement commercial, en particulier lorsque ces secteurs sont considérés comme très sensibles.


C'est un autre aspect dans lequel les solutions d'IA conversationnelles existantes sont supérieures aux LLM. Même les chatbots DIY bas de gamme permettent à leurs utilisateurs de modifier et d'améliorer leurs flux de conversation selon les besoins. Dans le cas d'interfaces d'IA conversationnelles plus sophistiquées, les utilisateurs ont non seulement un aperçu clair de l'erreur, mais peuvent également rechercher, diagnostiquer et résoudre le problème instantanément.


  1. Sécurité et prévisibilité – En particulier dans les industries sensibles aux données, telles que la santé, le gouvernement et la banque, les réponses génériques et génératives posent des responsabilités et des risques à notre insu à l'heure actuelle. L'ingestion de données hautement sensibles, comme les DME (dossiers médicaux électroniques) dans les soins de santé, pourrait produire des résultats qui compromettent la confiance des clients dans l'entreprise et remettent en question la validité de l'ensemble de la solution.


    Prenez l'exemple mathématique simple ci-dessous. 2 est un nombre naturel et entier, n'est-ce pas ? Pas si vous biaisez ChatGPT pour penser le contraire :

Cet exemple montre que :

  1. ChatGPT peut être manipulé par les invites de l'utilisateur (ou par des biais dans les données de formation sur lesquelles le LLM a été formé).


  1. ChatGPT peut inventer des réponses complètement fausses (que l'utilisateur ait essayé de le manipuler ou non), ce qui réduit considérablement la confiance en lui.


  1. Il n'y a aucun moyen pour une organisation utilisant ChatGPT de revenir en arrière et de comprendre d'où vient la réponse et de l'ajuster en conséquence. (Ai-je mentionné que c'est une boîte noire?)


Prenons maintenant des cas d'utilisation beaucoup plus complexes et sensibles, tels que la vérification des symptômes ou l'interrogation du portail patient, qui ne peuvent tout simplement pas être laissés au hasard. Actuellement, les garanties de sécurité et les cas d'utilisation impliquant des informations personnelles identifiables (PII) qui sont soumis à la conformité HIPAA sont à des années pour ChatGPT en tant que solution autonome, à moins qu'il ne soit protégé par des protocoles pré-intégrés dans une plate-forme d'IA conversationnelle existante.


  1. Déploiement omnicanal – Le chat est une pièce du puzzle, mais les entreprises ont depuis décidé de donner la priorité aux plates-formes omnicanales, ou, comme l'appelle Gartner, « d'établir l'entreprise basée sur le langage ». Actuellement, ChatGPT n'est que cela - le chat, un assistant monocanal. En ce qui concerne d'autres canaux, par exemple les centres d'appels et les haut-parleurs intelligents, adapter des réponses imprévisibles et longues à réutiliser pour l'IA vocale est une impossibilité actuelle pour ChatGPT. OpenAI eux-mêmes affirment que GPT-3, et par extension GPT-3.5, est optimisé pour les longs énoncés qui ne sont pas amorcés pour la troncature. D'après plus de 10 millions de conversations d'expérience, c'est une condamnation à mort pour les mesures de conversion et l'efficacité - ChatGPT est tout simplement trop inefficacement centré sur l'humain et bavard, un choix idéal pour les tâches axées sur les objectifs.


Alors qu'à l'origine, nous étions passés du chat via le site Web à la voix via les centres d'appels, nous avons dû subir des modifications majeures - optimiser la longueur, ajouter du contexte et nous assurer que nous avions réduit au maximum le temps pour atteindre l'objectif ou le temps pour valoriser . Voici un exemple de ce qui se passe lorsque vous ne vous ajustez pas :


Bien que cela puisse ne pas sembler long textuellement, l'extrait ci-dessus est en fait un monologue de 45 secondes lorsqu'il est transféré à la génération de voix IA pure. C'est une mauvaise UX via les centres d'appels, et loin de l'IA conversationnelle centrée sur l'humain, semblable à un ping-pong, vers laquelle l'industrie est censée migrer.


  1. Actions complexes — En tant qu'interface texte, ChatGPT ne renvoie que des sorties texte. Afin de combiner plusieurs logiques métier complexes, l'assistant d'IA conversationnel doit aller au-delà du comportement réactif (réaction) et évoluer vers un comportement exploitable, y compris des actions complexes proactives (interaction).


Par exemple, lorsqu'un patient demande à prendre rendez-vous chez le médecin, une expérience médiocre serait de transmettre exclusivement que le rendez-vous existe, sans étapes suivantes. Ce dont les consommateurs des entreprises les plus performantes ont vraiment besoin, et attendent maintenant, ce sont des actions proactives à prendre pour atteindre leurs objectifs de bout en bout, c'est-à-dire aller de l'avant et planifier ce rendez-vous chez le médecin, ce qui peut inclure la mise à jour de plusieurs bases de données ou API.


Les intégrations, en particulier celles qui sont spécifiques à la verticale, deviennent de plus en plus importantes lorsque des actions complexes sont prises en considération - sans elles, ChatGPT est incapable de réaliser une véritable automatisation au niveau de l'entreprise.


Les avantages ultimes de ChatGPT pour l'IA conversationnelle d'entreprise


  1. Élasticité du contexte - La capacité de ChatGPT à conserver le contexte, en particulier dans de longues séquences d'énoncés, et à tenir une conversation humaine tout au long, est une réalisation extraordinaire.


    Les chabots et assistants vocaux typiques sont connus pour se casser en raison de la rigidité des flux conversationnels et des intentions prédéfinies ; avec ChatGPT, il n'y a pas de perte de contexte tout au long de la conversation, ce qui signifie que les clients, qui sont bien sûr naturellement sujets à l'erreur humaine, peuvent changer de direction, modifier les entrées, reformuler, etc., sans perdre de temps. L'intégration du contexte et la référence aux parties précédentes de la conversation deviendront une aubaine non seulement pour une expérience client améliorée, mais également pour une assistance améliorée pour les cas d'utilisation des employés.


  1. Suprématie des données – ChatGPT représente une avancée majeure pour les non-symbolistes (voir : Yann Lecun ) qui prêchent que plus de données sont essentielles pour de meilleurs modèles. GPT-3.5 est l'un de ces modèles, qui ingère des milliards de paramètres de données et permet à l'IA de créer ses propres règles basées sur des conclusions tirées par elle-même.


    Par exemple, voyez suffisamment de photos de l'océan et l'IA peut en déduire en toute confiance qu'il est bleu. Le volume considérable de données permet aux entreprises de renoncer au processus lent et coûteux de formation de leurs propres modèles via l'apprentissage automatique (ML) et va au-delà des limites de leurs propres limites de données de formation. Symbolistes (voir : Gary Marcus ) d'autre part, croient que le langage naturel et l'espace de l'IA conversationnelle ont atteint une sorte de limite appelée "intelligence stupide", et pour faire avancer l'espace, nous aurions besoin de faire quelque chose de radicalement différent, comme IA symbolique .


La voie à suivre

Combiner des éléments de ChatGPT pour améliorer l'expérience conversationnelle, tout en optant pour un moteur plus contrôlé et plus sécurisé exécuté sur les données d'entreprise, sera la voie ultime à suivre alors que nous entrons dans cette prochaine vague d'IA conversationnelle et générative. Lorsque des connaissances spécialisées à jour peuvent se combiner de manière transparente avec le modèle de grande langue le plus puissant au monde, les possibilités de l'automatisation conversationnelle sont vraiment infinies.


Également publié ici .