¿Funcionaría mejor la IA con una mentalidad de "más es mejor"? La precisión del procesamiento del lenguaje natural (NLP) se basa en innumerables bytes de datos para alcanzar niveles de conversación rudimentarios. Desde la gramática hasta la semántica, hay más matices en los modelos conversacionales de IA que simplemente descargar diccionarios en conjuntos de datos.
Los modelos de lenguaje extenso (LLM, por sus siglas en inglés) son chatbots conversacionales de IA que conquistan el mundo, como ChatGPT. ¿Son productos como ChatGPT el modelo a seguir para el futuro de la IA conversacional, que se basa en LLM, o su popularidad proporciona información sobre lo que los humanos podrían hacer mejor?
BERT y ChatGPT son las IA conversacionales más conocidas del mundo. Los LLM extraen información de la entrada de datos, como libros y fuentes en constante actualización, como redes sociales o sitios web. Junto con la PNL avanzada, intenta construir respuestas de manera sintáctica y tonal, elaborando oraciones con la mayor cantidad de datos precisos posible mientras lee como un ser humano.
Los diseñadores de chatbots han comenzado a cuestionar si los modelos anteriores de IA conversacional que no dependían de los LLM deberían siquiera pasar a la siguiente fase de los chatbots. ¿Por qué la humanidad debería continuar experimentando con diseños anticuados cuando los LLM crean respuestas sorprendentemente auténticas y creíbles?
Los humanos deben confiar en los LLM para catalizar el crecimiento de la IA conversacional. Su adaptabilidad y escalabilidad son incomparables con las tecnologías anteriores, a pesar de sus deficiencias.
Los LLM no son perfectos: están en una etapa demasiado temprana de desarrollo para no tener la mayoría de los defectos. Las alucinaciones plagan los LLM, proporcionando a los usuarios respuestas inconsistentes o completamente inexactas que suenan convincentes hasta en un 41% de las veces. ¿Por qué es un problema tan grande si estos modelos son la cima de la IA conversacional moderna?
Hablar como un ser humano hace que las brechas de datos sean aún más problemáticas porque ningún conjunto de datos puede acceder a todos los conocimientos. Puede construir una oración que el LLM perciba como sensata porque la información es correcta en contextos específicos. No puede discernir cuando no lo es mientras trata de comunicarse de manera humana el 100% del tiempo. La construcción de la determinación podría ser un revoltijo de datos que suena tranquilizador pero no tiene respaldo.
Las alucinaciones podrían ser producto de una mala supervisión y conservación de datos. La deriva de conceptos, el sobreajuste y el desajuste son problemas que dan como resultado respuestas incorrectas incluso de la IA conversacional más madura. Cuando el entorno de aprendizaje para la IA admite hacer conexiones con anomalías o datos irrelevantes que impedirían discernir nuevos datos, podría hacer la misma pregunta a los LLM dos veces y obtener dos respuestas diferentes.
Nunca antes de los LLM, el laico tuvo acceso a una IA conversacional tan inmensa y poderosa. La llegada de OpenAI fue un cambio tecnológico necesario, ya que los humanos necesitaban jugar con la herramienta para aumentar su rendimiento. Más del 75 % de los consumidores cree en la capacidad de la IA para volverse más humana, lo que demuestra la seriedad con la que las personas interactúan con las herramientas.
Debido a que los LLM encuentran patrones y relaciones al analizar el lenguaje, les permite a los humanos comprender cómo las comunicaciones impactan el conocimiento. Si ChatGPT buscó en los sitios web para obtener una respuesta, ¿cómo podría su redacción influir en el resultado? ¿Cómo replican los LLM las prioridades de la humanidad con el lenguaje y la comunicación, especialmente en entornos digitales? La forma en que la IA conversacional habla con las personas requiere que todos, desde informáticos hasta estudiantes, reflexionen sobre cómo habla el mundo en persona y en línea.
Más contribuciones de los usuarios equivalen a más información que puede usar para expandir sus capacidades, también conocido como procesamiento humano en el ciclo . Las personas ayudan a identificar la información obsoleta y mejoran la entrega. Las empresas y las personas que no usaban LLM anteriormente ahora pueden experimentar cómo pueden simplificar vidas y optimizar las operaciones. En esencia, estos recursos eran anuncios gratuitos para la expansión y adopción de IA.
El futuro de la IA conversacional puede depender de los LLM como un trampolín o revelar la siguiente etapa en el desarrollo. A pesar de la precisión y la controversia, ya ha tenido un impacto cultural significativo en todo el mundo, iluminando a todos los que tienen acceso al futuro. Quizás la IA no debería depender de los LLM para siempre, pero es indiscutible que ahora se necesita para mantener el impulso para un progreso positivo.