A menos que uno haya estado viviendo literalmente debajo de una roca (y no encima de una), probablemente haya oído hablar de ChatGPT, el innovador sistema de IA basado en diálogos que crea distopías.
Su manera extremadamente conversacional hace que sus usuarios lo lleven al límite.
La mayoría está asombrada por su capacidad para escribir código en tiempo real o producir ensayos originales e infalibles.
De un vistazo, ChatGPT es bastante impresionante. Si bien esta tecnología existe desde hace algunos años, e incluso otras empresas lanzaron iniciativas similares en el pasado, ChatGPT pudo obtener un millón de usuarios en seis días.
Desde la perspectiva del producto, esto fue sin duda una prueba de que ChatGPT satisfizo una necesidad del mercado. Lo más probable es que cambie la economía de los conciertos para siempre, ya que esencialmente permite una búsqueda interactiva en Google con resultados mucho más concisos y procesables en tiempo real.
Sin embargo, la conversación sobre la IA a menudo es congruente con la de la ética: muchos comenzaron a cuestionar los peligros potenciales de que este modelo esté disponible para todos.
Como se mostró en el pasado, los humanos han tenido mala reputación al enseñar a la IA a decir cosas que no deberían pronunciarse, y mucho menos pensar.
En un nivel más filosófico, ¿cuál es la fuente de verdad de ChatGPT?
¿Qué pasa con otros futuros sistemas basados en GPT?
¿Cómo nos aseguramos de qué sesgos, conjuntos de datos y parámetros se tienen en cuenta sin comprometer la seguridad de la IA?
Estas preocupaciones (escritas como "limitaciones") en realidad son reconocidas por OpenAI en
Antes de resolver el inevitable levantamiento de los chatbots de IA, permita una breve explicación de cómo funciona realmente a vista de pájaro.
ChatGPT se basa en GPT-3.5, una versión mejor y ligeramente más nueva de GPT-3.
GPT significa Transformador preentrenado generativo 3.
“Es un modelo de lenguaje autorregresivo que utiliza el aprendizaje profundo para producir texto similar al humano. Dado un texto inicial como aviso, producirá un texto que continúa el aviso”. -
En palabras más simples, es un modelo de procesamiento de lenguaje predictivo que está entrenado específicamente para producir pruebas legibles por humanos. Esta noción se prueba utilizando la Prueba de Turing, con el objetivo de que el texto generado por IA no se pueda distinguir de su contraparte escrita por humanos.
GPT tiene que intentar predecir la respuesta correcta. Cuando se entrena el modelo, sigue ajustando sus variables internas hasta que obtiene la respuesta correcta.
Se tienen en cuenta muchos factores cuando se entrena el modelo, como hacer un seguimiento de la atención de la palabra, es decir, la influencia/clasificación de la palabra en la oración.
Para obtener más información sobre cómo funciona a un nivel más técnico, lea
ChatGPT fue el primero en realmente abrir esta funcionalidad de una manera fácil de usar para el público, lo cual es algo fantástico y aterrador dado su crecimiento parabólico.
La mayoría de los problemas que provienen de las IA basadas en GPT como ChatGPT se encuentran dentro de esta cita:
"En esencia, GPT-3, al igual que otros modelos de IA, es tan bueno como los datos con los que ha sido entrenado y los humanos crean estos datos. Las mismas creencias, sesgos, errores y falsedades que tenemos se reflejan en las respuestas de IA. Y dado que herramientas como ChatGPT parecen inteligentes, objetivas y confiables, tendemos a creer lo que estos modelos nos brindan". -
El problema principal con estos modelos son los datos que se alimentan. Antes de que una IA sea útil, tiene que consumir, interactuar y probarse con miles de millones de palabras y parámetros. Estos conjuntos de datos generalmente se filtran y seleccionan para que contengan información específica.
En el caso de ChatGPT, obtiene sus datos de Internet, lo que le permite tener una gran cantidad de soluciones diferentes al alcance de la mano (¿una IA tiene la punta de los dedos?).
Sin embargo, esto también significa que puede traer consigo algunos de los lados más oscuros de Internet y sus sesgos.
El problema no está en la IA en sí misma: está rastreando los procesos de capacitación y recopilación de datos que la crean.
Si uno pudiera rastrear y rastrear, con un grado de certeza y transparencia, la historia de un entrenamiento modelo a lo largo del tiempo, sus fuentes y su viaje general, entonces se pueden hacer determinaciones mucho mejores sobre la confianza de los resultados que produce.
De esta manera, el valor será más evidente en modelos más enfocados que tengan un propósito específico, un motivo y datos seleccionados.
Para ser claros, OpenAI es consciente de que los modelos pueden estar sesgados y que en algún momento se debe establecer una fuente sólida de verdad.
¿Y qué mejor tecnología para mantener un registro inmutable, transparente y cronológico de la creación de una IA que un libro mayor distribuido tolerante a fallas?
La mayoría ve a la IA como una especie de "caja negra" de funcionalidad, donde se desconoce el origen de los datos, dónde se recopilaron, en qué circunstancias y cómo funciona.
Sin embargo, ¿qué pasaría si cada vez que se creara una nueva IA, cada proceso relevante se enviara a un libro de contabilidad para que el público lo vea, para que sepan exactamente cómo funciona la IA en función de los datos proporcionados?
Las cadenas de bloques son buenas para mantener un registro verificable e imparcial de la verdad.
Obviamente, esto solo sería para IA públicas como ChatGPT. Todo, desde el conjunto de datos hasta quién estuvo involucrado, los parámetros esenciales y cualquier posible sesgo, podría mantenerse como una presencia en la cadena.
A medida que la IA entrena y mejora progresivamente, también se actualiza en tiempo real en el libro mayor. De esta manera, incluso los desarrolladores responsables de su capacitación podrían obtener una visión clara y cronológica de cómo le está yendo exactamente a la IA en términos de rendimiento.
Más importante aún, el libro mayor proporcionaría una fuente directa de verdad respaldada por la procedencia de la creación de la IA.
En otras palabras, responsabilizamos a la IA desde su creación, rastreamos su origen, motivos y cómo fue influenciada exactamente desde el nivel de capacitación.
Garantizaría la coherencia y la procedencia de los datos. La integridad de los datos está en su punto más bajo. Usando un sistema de mantenimiento de registros, como blockchain, podríamos rastrear cada byte de datos hasta su origen para la IA.
Esto ayudaría a identificar cualquier sesgo que pueda ser difícil de detectar en la caja negra de la IA y evitar la propagación falsa de datos que pueden provenir de una IA "maliciosa".
Piense en ello como una marca de verificación. Si la IA tiene una marca de verificación, entonces es válida. Si no, entonces hay razón para dudar de su legitimidad.
Como se muestra en cadenas de bloques como Polkadot , también es completamente posible que las organizaciones voten sobre ciertas reglas y mecanismos en la cadena. Se puede hacer un concepto similar para la IA, donde se pueden realizar votaciones para determinar varios factores con respecto a su legitimidad, la integridad de los datos y más.
Después de todo, estos modelos son tan buenos como los datos que se les proporcionan.
Con el tiempo, los datos pueden volverse intrincados. ¿Quién controla la fuente, qué quiere decir que la fuente se convierte en algo que podría ser dañino?
Por supuesto, OpenAI tiene su API de moderación, otra IA que detecta cosas que se consideran dañinas, lo cual es un paso muy valioso en la dirección correcta.
Sin embargo, incluso para la evidencia fáctica, es decir, la historia, los datos basados en Internet deben examinarse y verificarse muchas veces.
A medida que más público confíe en estos servicios, será crucial garantizar información confiable.
No hay duda de que la IA cambiará el mundo. Con ChatGPT, mostró al público cómo esta tecnología podría cambiar sus medios de vida de la noche a la mañana.
Asegurar la integridad de la IA es el siguiente paso. Verificar los datos que llegan, quién los desarrolló y sus motivos/objetivos exactos será crucial para mantener los estándares éticos y, a su vez, la confianza del público en dichos modelos.
¡Realmente está empezando a sentirse como web3 ahora!