Los grandes modelos de lenguaje no solo se equivocan, sino que presentan errores como hechos. Incluso con las nuevas ediciones, el problema no ha desaparecido. Pone la tasa de error de base de GPT-5 en un 1,4% - inferior al 1,8% de GPT-4 y sólo un 0,09% mejor que el 1,49% de GPT-4o. LLM liderazgo de alucinaciones Una pequeña mejora, pero el problema permanece. El público ya ha visto lo malo que esto puede llegar. A mediados de 2024, las revistas de inteligencia artificial de Google le dijeron a la gente que comiera rocas por minerales - Google más tarde reconoció el problema. A principios de 2023, la demostración de Bard de Google confundió un hecho del Telescopio Espacial James Webb. Estos pueden parecer títulos divertidos, pero es diferente cuando las personas realmente confían en estas herramientas. errores pequeños son simplemente molestos, pero en áreas como la salud, el derecho o la terapia, pueden ser peligrosos. What causes hallucinations in LLMs Qué causa las alucinaciones en los LLM Los LLM, incluyendo ChatGPT, están capacitados para predecir la próxima palabra en una secuencia, no para verificar hechos. No tienen una base de datos integrada de verdades garantizadas; en cambio, generan texto mediante la síntesis de patrones de datos de entrenamiento. Cuando no lo saben, adivinan las siguientes palabras que parecen más probables - y esa suposición puede estar equivocada. Los datos de entrenamiento provienen de grandes rascacielos web - blogs, foros, wikis. Hoy en día, mucha de la web está escrita por IA, por lo que los modelos comienzan a aprender de sus propias salidas. No more free data Ya no hay datos libres A mediados de 2023, las plataformas de contenido generado por el usuario (UGC) comenzaron a bloquear el acceso. Reddit limitó su API gratuita; los subreddits se tornaron oscuros. Twitter/X terminó el acceso de API gratuito. LinkedIn golpeó el rascado en masa. Stack Overflow dijo que cobraría por el acceso de capacitación a su Q&A. Quora movió más contenido a su aplicación Poe. Las grandes compañías de IA se trasladaron a licencias pagadas, y los modelos públicos quedaron con datos web antiguos y confusos, lo que hace que sea más probable que entrenen en su propio texto escrito por IA. Paying for access Pagar por el acceso OpenAI firmó un acuerdo con la Associated Press en 2023, seguido de acuerdos de varios años con Axel Springer y News Corp. Para 2025, más de veinte editores - incluyendo The Guardian y The Washington Post - se habían unido. Algunos acuerdos dan a los modelos de IA acceso a los archivos, otros cubren enlaces y atribución dentro de los productos. Google también firmó con AP a principios de 2025, mientras que Microsoft conectó a Copilot con la Westlaw de Thomson Reuters para búsquedas legales (para usuarios, no para capacitación). El mercado de datos de capacitación de IA en sí está valorado en alrededor de $ 3,2B en 2024 y se espera que crezca a $ 16,3B en 2034. Where the clean data lives Donde viven los datos limpios Los datos licenciados y limpiados están formando reservorios específicos del sector: Noticias y Publicaciones (2023-25): AP, Axel Springer, News Corp, Dotdash Meredith; más The Guardian, The Washington Post, Vox Media, y The Atlantic (mixa de acceso a archivos y enlaces / atribución en el producto). Académico y cultural (2024-25): los libros de dominio público de Harvard; el trabajo del MIT sobre la procedencia de los datos; repositorios abiertos como arXiv y Semantic Scholar. Médica y fiabilidad (2025): repositorios de investigación como ScaleMAI (imagen médica curada) y DR-AIR (conjuntos de datos de fiabilidad de IA); los abstractos de PubMed están abiertos, mientras que muchos textos completos permanecen restringidos. Comercial y empresarial (2023-25): BloombergGPT entrenado en datos financieros propietarios; contenido de Thomson Reuters disponible a través de integraciones; proveedores de grandes datos / anotaciones (Appen, Scale AI); más sensor / telemetría industrial utilizada dentro de las empresas. Especializado (2025): grandes inversiones para asegurar datos y infraestructuras de capacitación con licencia (por ejemplo, Meta-Scale AI); certificación "Fairly Trained" para capacitación basada en consentimiento. El New York Times demandó a OpenAI y a Microsoft en diciembre de 2023, haciendo claro que no licenciaría sus archivos. El Financial Times firmó un acuerdo con OpenAI en abril de 2024. Elsevier y Wiley mantienen archivos científicos cerrados. Bloomberg ha mantenido sus datos financieros propietarios. Paid, specialised data is next Pago, datos especializados es el siguiente Probablemente nos dirigiremos a una división: la web abierta es buena para tareas simples como buscar rápidamente, redactar texto o responder a preguntas cotidianas; la investigación seria, el análisis y las construcciones de IA se mueven a depósitos limpios de datos - revisados, filtrados, verificados - a menudo detrás de las suscripciones. Esa configuración necesita acceso basado en roles integrado - HR ve HR, finanzas ve finanzas, legal ve legal. Acceso basado en roles significa que el modelo solo saca de lo que la persona está limpiada para ver. Esto mantiene los datos privados fuera de las respuestas y reduce el riesgo de que el modelo saque "hechos" de la base equivocada. Si esa brecha permanece, los equipos que construyen la búsqueda consciente del papel y las bases de conocimiento bloqueadas ganarán confianza - y los contratos. What to do with only public AI access Qué hacer con solo acceso público AI La ingeniería prompt es a menudo la primera línea de defensa contra las respuestas hechas - es barata e inmediata. Si la prompt es incierta, la respuesta será incierta. Los profesionales de la industria enfatizan el mismo punto: sin suficiente contexto, la salida es probable que sea pobre, y el modelo es más propenso a alucinar. Reglas claras y fuentes limpias mantienen las respuestas en el camino. Las mejores prácticas incluyen: Incluye: ser cauteloso; si no está seguro, decir “inconocido”; usar sólo las fuentes de abajo; no inventar citas. Ground el modelo. Si la navegación está apagada, pega las pasajes clave usted mismo y los marca con delimitaciones claras (por ejemplo, <data>...</data>), luego instruye al modelo a responder sólo a partir de ese texto. Si la navegación está habilitada, también puede proporcionar enlaces, pero los extractos de texto son más seguros y reducen el riesgo de que el modelo extraiga la información incorrecta. Estado objetivo, audiencia, longitud y cualquier ventana de tiempo (por ejemplo, prefiere fuentes de los últimos 12 meses para temas sensibles al tiempo). Prohibir las reivindicaciones adicionales.Prohibir las declaraciones no respaldadas por el material suministrado. Requiere recibos (seguro).Después de las reclamaciones, sólo requiere citas en línea de las fuentes proporcionadas con fecha de publicación y una breve cita de apoyo (≤25 palabras). Elige el modo correcto.Elige precisión/analítico sobre creativo; baja temperatura/top-p donde sea posible. Comience con un borrador o un borrador corto; perfeccione con seguimientos enfocados. Comprobar nombres, números, fechas, citas; borrar cualquier línea sin una fuente real. Las reclamaciones de salud, legales o monetarias deben confirmarse en un sitio oficial o en una segunda fuente de confianza antes de actuar. Transformar prompts eficaces en plantillas reutilizables; ajustar cuando aparezcan errores repetidos. Mantenga un pequeño conjunto de enlaces de confianza / extractos de texto listos para anclar respuestas. The bottom line La línea inferior Para el 2025, la división es clara: Public AI: Rápido, accesible, entrenado en largos rascacielos de Internet. Bueno para el uso casual, poco fiable para el cumplimiento. Enterprise AI: Pagado, curado y auditado. Construido sobre reservorios con licencia, combinado con gobernanza y registros. Ambos continuarán.La diferencia es que uno prioriza la velocidad, el otro la responsabilidad.Saber qué pista está utilizando importa. Glue en la salsa de pizza hace un título divertido cuando se trata de una búsqueda de consumidores. En un gráfico hospitalario o en un expediente de un tribunal, es catastrófico.