Lançado pela OpenAI em 30 de novembro de 2022, o ChatGPT já acumulou 1 milhão de usuários como a plataforma tecnológica de crescimento mais rápido de todos os tempos, incendiando a Internet com IA generativa de nível superior que está cativando a imaginação de engenheiros, linguistas, profissionais de marketing e estudantes , e mais.
Em sua essência, o ChatGPT é o chatbot de uso geral mais avançado do mundo, gerado a partir do modelo de linguagem grande (LLM) GPT-3.5. Ele representa uma iteração do InstructGPT, que foi lançado em janeiro de 2022 e gerou ondas semelhantes, porém menores, no espaço conversacional de IA. O GPT-3.5 é uma variação do modelo GPT-3, treinado em uma ampla mistura de trechos e códigos selecionados, no valor de 175 bilhões de parâmetros, no final de 2021. Os resultados, até agora, foram impressionantes.
ChatGPT pode aproveitar o poder de Shakespeare para escrever sonetos,
Tem sido apontado como a bola de demolição da IA para o bloqueio do escritor e o novo mecanismo de busca extraordinário. Não há dúvida de que a capacidade impressionante do ChatGPT de gerar conteúdo e a retenção do contexto que se desenrola ao longo das conversas é incomparável. Mas, embora os casos de uso voltados para o consumidor sejam claros, ainda há muito a desejar com a mais recente maravilha do OpenAI no que se refere a empresas e B2B, ou B2B2C, implementação no mundo real.
O ChatGPT (e/ou qualquer outro chatbot baseado em LLM) é um ingrediente importante na receita, não o prato inteiro. Embora as barreiras certamente tenham sido quebradas na compreensão da linguagem natural (NLU), as proezas de conversação do ChatGPT só podem ir até certo ponto. Estatisticamente preciso não é suficiente – quase correto, para verticais sensíveis, como saúde e governo, é um obstáculo para a implementação corporativa.
A outra metade da receita, para casos de uso de negócios, corresponderá ao acesso em tempo real ao conhecimento organizacional especializado (seus dados proprietários) com lógica de negócios dinâmica (seus processos internos e externos em constante mudança), para garantir precisão ao navegar por seus usuários para atingir seus objetivos. Sem um ingrediente-chave adicional na mistura, usar o ChatGPT ou qualquer outro chatbot baseado em LLM simplesmente não é uma opção - então, enquanto isso, espere que as organizações solicitem diferentes soluções corporativas no menu.
Digite: empresas de IA de conversação existentes.
Os chefs com estrela Michelin não cultivam seus próprios tomates, mas com certeza sabem como encontrar o melhor – semelhante a como a maioria das soluções de IA de conversação não reinventa a roda com STT (Speech-to-Text) e TTS (Text -to-Speech), em vez de optar por obter o mais forte já existente do Google ou da Microsoft, as empresas de IA de conversação também incorporarão o GPT-3.5, agora o principal modelo de linguagem grande do mundo, em sua pilha de conversação.
Aqueles que fizerem isso sem problemas – enquanto priorizam a segurança e a precisão para seus clientes – emergirão como vencedores na nova era da IA generativa e de conversação. É aqui que a verdadeira mágica acontece para as empresas.
Vamos explorar como é a coexistência entre as atuais soluções de IA de conversação e o ChatGPT. Primeiro, abordaremos o que a IA conversacional de nível empresarial requer para uma implantação bem-sucedida. Para ser viável para empresas e outras organizações “pesadas em informações”, a IA conversacional precisa marcar 5 caixas-chave:
Conhecimento personalizado em tempo real — Para tomar decisões baseadas em dados, incluindo agendar uma consulta com médicos ou encontrar informações técnicas sobre produtos, os usuários exigem informações precisas e atualizadas instantaneamente sobre produtos e negócios, geralmente capturadas por meio de APIs. Esses conjuntos de dados e regras de negócios são inerentemente únicos para cada organização individual e, além de entender o conhecimento de “senso comum” como o ChatGPT faz de forma eficaz, suas ontologias dinâmicas precisariam idealmente ser absorvidas por um gráfico de conhecimento. Para o ChatGPT, o acesso a essas informações específicas de domínio e até específicas da organização é inexistente – e as informações que ele poderia fornecer, conforme observado anteriormente, são baseadas em um grande modelo de linguagem que foi treinado em parâmetros de 2021, muitas vezes renderizando o dados irrelevantes na melhor das hipóteses. A atualização automática da base de conhecimento de uma organização, uma habilidade encontrada apenas em algumas poucas empresas de IA conversacional, é necessária para a entrega minuto a minuto de serviços digitais.
Para aquelas organizações que priorizaram casos de uso de atendimento ao cliente e personalização dentro do escopo de suas implantações, isso adiciona outra camada de conhecimento ausente - os dados gerais precisam ser facilmente integrados ao contexto de conversação em andamento e às preferências individuais do cliente registradas, digamos, um CRM como Salesforce. Ao usar apenas informações genéricas e desatualizadas do LLM, esse é um obstáculo bem documentado, pois os assistentes de IA em ação não poderão aprender ou ser treinados novamente à medida que novos pontos de dados e cenários em evolução forem encontrados.
Explicabilidade - Em 2021, cobrimos o GPT-3 e, como acontece com a maioria das redes neurais, ele representava uma caixa preta com a qual seria difícil entender o raciocínio por trás das saídas de conversação reais. O GPT-3.5 - no qual o ChatGPT se baseia - apresenta a mesma falta de visibilidade. Claro, os humanos que constroem o ChatGPT podem controlar as entradas (os dados que são ingeridos) e testemunhar as saídas que são produzidas, mas, infelizmente, não conseguimos entender como diferentes variáveis e parâmetros estão sendo combinados para criar essas saídas.
O ChatGPT, e o LLM no qual se baseia, é impressionante devido à sua capacidade de responder corretamente a uma série de perguntas complexas, mas também gera uma tonelada de respostas imprecisas devido a dados desatualizados e à capacidade de ser manipulado para fornecer respostas tendenciosas. Quando o assistente falha, não há responsabilidade – não há como depurar o problema em questão ou rastrear/identificar a origem da saída imprecisa. Em termos leigos, o ChatGPT não sabe o que não sabe e, adicionalmente, não pode contestar as presunções propostas pelos usuários.
Uma das principais razões pelas quais as empresas começaram a explorar as tecnologias de gráficos de conhecimento é evitar a falta de transparência e explicabilidade dos dados. Qualquer interface voltada para o usuário que não pode ser iterada e revisada é insustentável ou escalável em um ambiente de negócios, especialmente quando esses setores são considerados altamente sensíveis.
Esse é outro aspecto em que as soluções de IA de conversação existentes são superiores aos LLMs. Mesmo os chatbots DIY de última geração permitem que seus usuários alterem e melhorem seus fluxos de conversa conforme necessário. No caso de interfaces de IA conversacionais mais sofisticadas, os usuários não apenas têm um instantâneo claro do erro, mas também podem rastrear, diagnosticar e corrigir o problema instantaneamente.
Segurança e previsibilidade – Especialmente em setores sensíveis a dados, como saúde, governo e bancos, as respostas genéricas e generativas representam responsabilidades e riscos desconhecidos para nós no momento. A ingestão de dados altamente confidenciais, como EMRs (Registros Médicos Eletrônicos) na área da saúde, pode produzir resultados que colocam em risco a confiança dos clientes na empresa e questionam a validade de toda a solução.
Veja o exemplo de matemática simples abaixo. 2 é um número natural e inteiro, certo? Não se você influenciar o ChatGPT para pensar o contrário:
Este exemplo mostra que:
Agora, considere casos de uso muito mais complexos e sensíveis, como verificação de sintomas ou consulta ao portal do paciente, que simplesmente não podem ser deixados ao acaso. Atualmente, as garantias de segurança e os casos de uso envolvendo informações de identificação pessoal (PII) sujeitas à conformidade com a HIPAA estão a anos de distância para o ChatGPT como uma solução autônoma, a menos que seja protegido por protocolos pré-construídos em uma plataforma de conversação AI existente.
Embora originalmente expandíssemos do bate-papo pelo site para a voz por meio de centrais de atendimento, tivemos que passar por grandes alterações – otimizando o comprimento, adicionando contexto e garantindo que reduzíssemos ao máximo o tempo para o objetivo ou o tempo para o valor . Aqui está um exemplo do que acontece quando você não ajusta:
Embora isso possa não parecer longo textualmente, o trecho acima é na verdade um monólogo de 45 segundos quando transferido para geração de voz pura de IA. Isso é UX ruim por meio de call centers e longe da IA de conversação centrada no ser humano, semelhante a um pingue-pongue, para a qual a indústria deve estar migrando.
Por exemplo, quando um paciente pede para marcar uma consulta médica, uma experiência inferior seria transmitir exclusivamente que a consulta existe, sem as próximas etapas. O que os consumidores de empresas de alto desempenho realmente precisam, e agora esperam, são ações proativas a serem tomadas para completar seus objetivos de ponta a ponta, ou seja, agendar aquela consulta médica, que pode incluir a atualização de vários bancos de dados ou APIs.
As integrações, principalmente as verticais específicas, tornam-se cada vez mais importantes quando são consideradas ações complexas – sem elas, o ChatGPT não consegue realizar uma verdadeira automação em nível empresarial.
Elasticidade de contexto – A capacidade do ChatGPT de manter o contexto, particularmente em longas sequências de enunciados, e manter uma conversa de estilo humano, é uma conquista extraordinária.
Sabe-se que chabots e assistentes de voz típicos quebram devido à rigidez dos fluxos de conversação e intenções predefinidas; com o ChatGPT, não há perda de contexto durante a conversa, o que significa que os clientes, naturalmente propensos a erros humanos, podem mudar de direção, alterar entradas, reformular e muito mais, sem perder o ritmo. Incorporar contexto e fazer referência a partes anteriores da conversa se tornará um benefício não apenas para uma experiência aprimorada do cliente, mas também para assistência qualificada para casos de uso de funcionários.
Supremacia de dados – ChatGPT representa um grande passo em frente para não-simbolistas (ver:
Por exemplo, veja fotos suficientes do oceano e a IA pode deduzir com segurança que é azul. O grande volume de dados permite que as empresas abandonem o processo lento e caro de treinar seus próprios modelos por meio de aprendizado de máquina (ML) e vão além dos limites de suas próprias limitações de dados de treinamento. Simbolistas (ver:
A combinação de elementos do ChatGPT para melhorar a experiência de conversação, ao mesmo tempo em que optamos por um mecanismo mais controlado e com segurança pesada executado em dados corporativos, será o caminho definitivo à medida que entramos nesta próxima onda de IA conversacional e generativa. Quando o conhecimento atualizado e especializado pode ser combinado perfeitamente com o modelo de linguagem ampla mais poderoso do mundo, as possibilidades de automação de conversação são realmente infinitas.
Publicado também aqui .