Lanzado por OpenAI el 30 de noviembre de 2022, ChatGPT ya ha acumulado 1 millón de usuarios como la plataforma tecnológica de más rápido crecimiento de todos los tiempos, incendiando Internet con IA generativa de siguiente nivel que está cautivando la imaginación de ingenieros, lingüistas, especialistas en marketing, estudiantes , y más.
En esencia, ChatGPT es el chatbot de propósito general más avanzado del mundo, generado a partir del modelo de lenguaje grande (LLM) GPT-3.5. Representa una iteración de InstructGPT, que se lanzó en enero de 2022 e hizo olas similares pero más pequeñas en el espacio de IA conversacional. GPT-3.5 es una variación del modelo GPT-3, entrenado en una amplia mezcla de extractos y códigos seleccionados, por una suma de 175 mil millones de parámetros, a fines de 2021. Los resultados, hasta ahora, han sido más que impresionantes.
ChatGPT puede aprovechar el poder de Shakespeare para escribir sonetos,
Se ha promocionado como la bola de demolición de la IA contra el bloqueo del escritor y el nuevo motor de búsqueda extraordinario. No hay duda de que la sorprendente capacidad de ChatGPT para generar contenido y la retención de contexto que se desarrolla a lo largo de las conversaciones no tiene rival. Pero, si bien los casos de uso orientados al consumidor son claros, queda mucho que desear con la última maravilla de OpenAI en lo que respecta a las empresas y la implementación B2B o B2B2C en el mundo real.
ChatGPT (y/o cualquier otro chatbot basado en LLM) es un ingrediente principal en la receta, no todo el plato. Si bien las barreras ciertamente se han roto en la comprensión del lenguaje natural (NLU), la destreza conversacional de ChatGPT solo puede llegar hasta cierto punto. La precisión estadística no es suficiente: casi correcto, para verticales sensibles como la atención médica y el gobierno, no es un comienzo para la implementación empresarial.
La otra mitad de la receta, para los casos de uso comercial, combinará el acceso en tiempo real al conocimiento organizacional especializado (sus datos patentados) con la lógica comercial dinámica (sus procesos internos y externos en constante cambio), para garantizar la precisión mientras navegan por sus usuarios. para lograr sus objetivos. Sin un ingrediente clave adicional en la combinación, usar ChatGPT o cualquier otro chatbot basado en LLM simplemente no es una opción, por lo que, mientras tanto, espere que las organizaciones pidan diferentes soluciones empresariales en el menú.
Ingrese: empresas existentes de IA conversacional.
Los chefs con estrellas Michelin no cultivan sus propios tomates, pero seguro que saben cómo encontrar los mejores, de forma similar a cómo la mayoría de las soluciones de inteligencia artificial conversacional no reinventan la rueda con STT (voz a texto) y TTS (texto). -to-Speech), en lugar de optar por obtener el más fuerte que ya existe de Google o Microsoft, también las empresas de inteligencia artificial conversacional incorporarán GPT-3.5, ahora el mejor modelo de lenguaje grande en el mundo, dentro de su pila conversacional.
Aquellos que hagan esto sin problemas, al tiempo que priorizan la seguridad y la precisión para sus clientes, emergerán como ganadores en la nueva era de la IA generativa y conversacional. Aquí es donde sucede la verdadera magia para las empresas.
Exploremos cómo es la coexistencia entre las soluciones actuales de IA conversacional y ChatGPT. Primero, cubriremos lo que requiere la IA conversacional de nivel empresarial para una implementación exitosa. Para ser viable para las empresas y otras organizaciones con "gran cantidad de información", la IA conversacional debe marcar 5 casillas clave:
Conocimiento personalizado en tiempo real: para tomar decisiones basadas en datos, incluida la programación de una cita con médicos o la búsqueda de información técnica de productos, los usuarios exigen información comercial y de productos precisa y actualizada al instante, generalmente capturada a través de API. Esos conjuntos de datos y reglas comerciales son inherentemente únicos para cada organización individual, y más allá de comprender el conocimiento de "sentido común" como ChatGPT lo hace de manera efectiva, sus ontologías dinámicas idealmente deberían ser absorbidas por un gráfico de conocimiento. Para ChatGPT, el acceso a esa información específica del dominio e incluso de la organización es inexistente, y la información que podría brindar, como se señaló anteriormente, se basa en un gran modelo de lenguaje que se entrenó en parámetros de 2021, a menudo representando el datos irrelevantes en el mejor de los casos. La actualización automática de la base de conocimientos de una organización, una habilidad que se encuentra solo en unas pocas empresas de inteligencia artificial conversacional, es necesaria para la entrega de servicios digitales minuto a minuto.
Para aquellas organizaciones que han priorizado los casos de uso de servicio al cliente y la personalización dentro del alcance de sus implementaciones, eso agrega otra capa de conocimiento faltante: los datos generales deben integrarse fácilmente con el contexto de conversación en curso y las preferencias individuales del cliente registradas, digamos, un CRM como Salesforce. Cuando se utiliza únicamente la información genérica y desactualizada de LLM, se trata de un obstáculo bien documentado, ya que los asistentes de IA en acción no podrán aprender o volver a capacitarse a medida que se encuentren nuevos puntos de datos y escenarios en evolución.
Explicabilidad: en 2021, cubrimos GPT-3 y, como ocurre con la mayoría de las redes neuronales, representaba una caja negra con la que sería difícil comprender el razonamiento detrás de los resultados conversacionales reales. GPT-3.5, en el que se basa ChatGPT, tiene la misma falta de visibilidad. Claro, los humanos que construyen ChatGPT pueden controlar las entradas (los datos que se ingieren) y ser testigos de las salidas que se producen, pero desafortunadamente, no podemos entender cómo se combinan diferentes variables y parámetros para crear esas salidas.
ChatGPT, y el LLM en el que se basa, es legítimamente impresionante debido a su capacidad para responder correctamente una gran cantidad de preguntas complejas, pero también genera un montón de respuestas inexactas debido a datos obsoletos y la capacidad de ser engañado para proporcionar respuestas sesgadas. Cuando el asistente falla, no hay responsabilidad: no hay forma de depurar el problema en cuestión ni de rastrear o señalar el origen del resultado inexacto. En términos sencillos, ChatGPT no sabe lo que no sabe y, además, no puede disputar las suposiciones propuestas por los usuarios.
Una de las principales razones por las que las empresas han comenzado a explorar las tecnologías de gráficos de conocimiento es para evitar la falta de transparencia y explicabilidad de los datos. Cualquier interfaz orientada al usuario que no se pueda iterar y revisar es insostenible o escalable en un entorno empresarial, especialmente cuando esas industrias se consideran altamente sensibles.
Este es otro aspecto en el que las soluciones de IA conversacional existentes son superiores a los LLM. Incluso los chatbots de bricolaje de bajo nivel permiten a sus usuarios modificar y mejorar sus flujos de conversación según sea necesario. En el caso de las interfaces de IA conversacionales más sofisticadas, los usuarios no solo tienen una imagen clara del error, sino que también pueden rastrear, diagnosticar y solucionar el problema al instante.
Seguridad y previsibilidad: especialmente en las industrias sensibles a los datos, como la atención médica, el gobierno y la banca, las respuestas genéricas y generativas plantean responsabilidades y riesgos desconocidos para nosotros en la actualidad. La ingesta de datos altamente confidenciales, como EMR (registros médicos electrónicos) en el cuidado de la salud, podría producir resultados que pongan en peligro la confianza de los clientes en la empresa y cuestionar la validez de toda la solución.
Tome el ejemplo matemático simple a continuación. 2 es un número natural y entero, ¿verdad? No si sesgas a ChatGPT para que piense lo contrario:
Este ejemplo muestra que:
Ahora tome casos de uso mucho más complejos y sensibles, como la verificación de síntomas o la consulta del portal del paciente, que simplemente no se pueden dejar al azar. Actualmente, las garantías de seguridad y los casos de uso que involucran información de identificación personal (PII) que están sujetos al cumplimiento de HIPAA están a años de distancia para ChatGPT como una solución independiente, a menos que esté protegido por protocolos preintegrados en una plataforma de IA conversacional existente.
Si bien originalmente nos expandimos del chat a través del sitio web a la voz a través de los centros de llamadas, tuvimos que realizar modificaciones importantes: optimizar la duración, agregar contexto y garantizar que redujéramos al máximo el tiempo para alcanzar el objetivo o el tiempo para generar valor . Aquí hay un ejemplo de lo que sucede cuando no se ajusta:
Si bien eso puede no parecer largo textualmente, el fragmento anterior es en realidad un monólogo de 45 segundos cuando se transfiere a la generación de voz de IA pura. Esa es una UX deficiente a través de los centros de llamadas, y está lejos de la IA conversacional centrada en el ser humano y similar al ping-pong a la que la industria debería migrar.
Por ejemplo, cuando un paciente solicita reservar una cita con el médico, una experiencia insatisfactoria sería transmitir exclusivamente que la cita existe, sin los siguientes pasos. Lo que los consumidores de las empresas de alto rendimiento realmente necesitan, y ahora esperan, son acciones proactivas que se tomen para completar sus objetivos de principio a fin, es decir, ir y programar la cita con el médico, lo que puede incluir la actualización de múltiples bases de datos o API.
Las integraciones, especialmente aquellas que son específicas de la vertical, se vuelven cada vez más importantes cuando se toman en consideración acciones complejas; sin ellas, ChatGPT no puede llevar a cabo una verdadera automatización a nivel empresarial.
Elasticidad del contexto: la capacidad de ChatGPT para mantener el contexto, particularmente en largas secuencias de declaraciones, y mantener una conversación humana en todo momento, es un logro extraordinario.
Se sabe que los chabots y los asistentes de voz típicos se rompen debido a la rigidez de los flujos de conversación y las intenciones predefinidas; con ChatGPT, no se pierde el contexto a lo largo de la conversación, lo que significa que los clientes, que por supuesto son propensos al error humano, pueden cambiar de dirección, cambiar entradas, reformular y más, sin perder el ritmo. La incorporación de contexto y la referencia a partes anteriores de la conversación se convertirán en una bendición no solo para mejorar la experiencia del cliente, sino también para mejorar la asistencia en los casos de uso de los empleados.
Supremacía de datos: ChatGPT representa un gran paso adelante para los no simbolistas (ver:
Por ejemplo, vea suficientes fotos del océano y la IA puede deducir con confianza que es azul. El gran volumen de datos permite a las empresas renunciar al proceso lento y costoso de entrenar sus propios modelos a través del aprendizaje automático (ML), y va más allá de los límites de sus propias limitaciones de datos de entrenamiento. simbolistas (ver:
La combinación de elementos de ChatGPT para mejorar la experiencia conversacional, al tiempo que se opta por un motor más controlado y de mayor seguridad que se ejecuta en datos empresariales, será el último camino a seguir a medida que ingresamos en esta próxima ola de IA conversacional y generativa. Cuando el conocimiento especializado y actualizado se puede combinar a la perfección con el modelo de lenguaje grande más poderoso del mundo, las posibilidades de la automatización conversacional son realmente infinitas.
También publicado aquí .