paint-brush
Blockchain como la última máquina de la verdad para la IA basada en GPT (ChatGPT)por@badery
3,228 lecturas
3,228 lecturas

Blockchain como la última máquina de la verdad para la IA basada en GPT (ChatGPT)

por bader6m2022/12/13
Read on Terminal Reader
Read this story w/o Javascript

Demasiado Largo; Para Leer

No hay duda de que la IA cambiará el mundo. Con ChatGPT, mostró al público cómo esta tecnología podría cambiar sus medios de vida de la noche a la mañana. Asegurar la integridad de la IA es el siguiente paso. Verificar los datos que llegan, quién los desarrolló y sus motivos/objetivos exactos será crucial para mantener los estándares éticos y, a su vez, la confianza del público en dichos modelos. ¡Realmente está empezando a sentirse como web3 ahora!
featured image - Blockchain como la última máquina de la verdad para la IA basada en GPT (ChatGPT)
bader HackerNoon profile picture
0-item

A menos que uno haya estado viviendo literalmente debajo de una roca (y no encima de una), probablemente haya oído hablar de ChatGPT, el innovador sistema de IA basado en diálogos que crea distopías.


Su manera extremadamente conversacional hace que sus usuarios lo lleven al límite.


La mayoría está asombrada por su capacidad para escribir código en tiempo real o producir ensayos originales e infalibles.


ChatGPT escribiendo código en tiempo real.


De un vistazo, ChatGPT es bastante impresionante. Si bien esta tecnología existe desde hace algunos años, e incluso otras empresas lanzaron iniciativas similares en el pasado, ChatGPT pudo obtener un millón de usuarios en seis días.


Desde la perspectiva del producto, esto fue sin duda una prueba de que ChatGPT satisfizo una necesidad del mercado. Lo más probable es que cambie la economía de los conciertos para siempre, ya que esencialmente permite una búsqueda interactiva en Google con resultados mucho más concisos y procesables en tiempo real.


https://twitter.com/jdjkelly/status/1598021488795586561


Sin embargo, la conversación sobre la IA a menudo es congruente con la de la ética: muchos comenzaron a cuestionar los peligros potenciales de que este modelo esté disponible para todos.


Como se mostró en el pasado, los humanos han tenido mala reputación al enseñar a la IA a decir cosas que no deberían pronunciarse, y mucho menos pensar.


En un nivel más filosófico, ¿cuál es la fuente de verdad de ChatGPT?


¿Qué pasa con otros futuros sistemas basados en GPT?

¿Cómo nos aseguramos de qué sesgos, conjuntos de datos y parámetros se tienen en cuenta sin comprometer la seguridad de la IA?


Estas preocupaciones (escritas como "limitaciones") en realidad son reconocidas por OpenAI en su artículo que presenta ChatGPT , sin embargo, ¡no se presenta ninguna solución para resolver estos problemas!

Breve desglose de ChatGPT

Antes de resolver el inevitable levantamiento de los chatbots de IA, permita una breve explicación de cómo funciona realmente a vista de pájaro.


ChatGPT se basa en GPT-3.5, una versión mejor y ligeramente más nueva de GPT-3.


GPT significa Transformador preentrenado generativo 3.


“Es un modelo de lenguaje autorregresivo que utiliza el aprendizaje profundo para producir texto similar al humano. Dado un texto inicial como aviso, producirá un texto que continúa el aviso”. - GPT-3, Wikipedia .


En palabras más simples, es un modelo de procesamiento de lenguaje predictivo que está entrenado específicamente para producir pruebas legibles por humanos. Esta noción se prueba utilizando la Prueba de Turing, con el objetivo de que el texto generado por IA no se pueda distinguir de su contraparte escrita por humanos.


Análisis más detallado de cómo funciona ChatGPT desde OpenAI - https://openai.com/blog/chatgpt/


GPT tiene que intentar predecir la respuesta correcta. Cuando se entrena el modelo, sigue ajustando sus variables internas hasta que obtiene la respuesta correcta.


Se tienen en cuenta muchos factores cuando se entrena el modelo, como hacer un seguimiento de la atención de la palabra, es decir, la influencia/clasificación de la palabra en la oración.


Para obtener más información sobre cómo funciona a un nivel más técnico, lea La investigación de OpenAI aquí.

ChatGPT fue el primero en realmente abrir esta funcionalidad de una manera fácil de usar para el público, lo cual es algo fantástico y aterrador dado su crecimiento parabólico.

Los peligros potenciales de los modelos basados en GPT

La mayoría de los problemas que provienen de las IA basadas en GPT como ChatGPT se encuentran dentro de esta cita:


"En esencia, GPT-3, al igual que otros modelos de IA, es tan bueno como los datos con los que ha sido entrenado y los humanos crean estos datos. Las mismas creencias, sesgos, errores y falsedades que tenemos se reflejan en las respuestas de IA. Y dado que herramientas como ChatGPT parecen inteligentes, objetivas y confiables, tendemos a creer lo que estos modelos nos brindan". - Usar la IA más poderosa ahora es más simple, Forbes


El problema principal con estos modelos son los datos que se alimentan. Antes de que una IA sea útil, tiene que consumir, interactuar y probarse con miles de millones de palabras y parámetros. Estos conjuntos de datos generalmente se filtran y seleccionan para que contengan información específica.


En el caso de ChatGPT, obtiene sus datos de Internet, lo que le permite tener una gran cantidad de soluciones diferentes al alcance de la mano (¿una IA tiene la punta de los dedos?).


Sin embargo, esto también significa que puede traer consigo algunos de los lados más oscuros de Internet y sus sesgos.


El problema no está en la IA en sí misma: está rastreando los procesos de capacitación y recopilación de datos que la crean. ¡Solo porque es una solución *A*, no significa que sea siempre la solución *CORRECTA*! - https://twitter.com/gregisenberg/status/1601934568570949632


Si uno pudiera rastrear y rastrear, con un grado de certeza y transparencia, la historia de un entrenamiento modelo a lo largo del tiempo, sus fuentes y su viaje general, entonces se pueden hacer determinaciones mucho mejores sobre la confianza de los resultados que produce.


De esta manera, el valor será más evidente en modelos más enfocados que tengan un propósito específico, un motivo y datos seleccionados.


Para ser claros, OpenAI es consciente de que los modelos pueden estar sesgados y que en algún momento se debe establecer una fuente sólida de verdad.

¿Y qué mejor tecnología para mantener un registro inmutable, transparente y cronológico de la creación de una IA que un libro mayor distribuido tolerante a fallas?

Uso de un libro mayor distribuido para facilitar la creación de IA


La mayoría ve a la IA como una especie de "caja negra" de funcionalidad, donde se desconoce el origen de los datos, dónde se recopilaron, en qué circunstancias y cómo funciona.


Sin embargo, ¿qué pasaría si cada vez que se creara una nueva IA, cada proceso relevante se enviara a un libro de contabilidad para que el público lo vea, para que sepan exactamente cómo funciona la IA en función de los datos proporcionados?


Las cadenas de bloques son buenas para mantener un registro verificable e imparcial de la verdad.


Obviamente, esto solo sería para IA públicas como ChatGPT. Todo, desde el conjunto de datos hasta quién estuvo involucrado, los parámetros esenciales y cualquier posible sesgo, podría mantenerse como una presencia en la cadena.


A medida que la IA entrena y mejora progresivamente, también se actualiza en tiempo real en el libro mayor. De esta manera, incluso los desarrolladores responsables de su capacitación podrían obtener una visión clara y cronológica de cómo le está yendo exactamente a la IA en términos de rendimiento.


Más importante aún, el libro mayor proporcionaría una fuente directa de verdad respaldada por la procedencia de la creación de la IA.


En otras palabras, responsabilizamos a la IA desde su creación, rastreamos su origen, motivos y cómo fue influenciada exactamente desde el nivel de capacitación.


Garantizaría la coherencia y la procedencia de los datos. La integridad de los datos está en su punto más bajo. Usando un sistema de mantenimiento de registros, como blockchain, podríamos rastrear cada byte de datos hasta su origen para la IA.


Esto ayudaría a identificar cualquier sesgo que pueda ser difícil de detectar en la caja negra de la IA y evitar la propagación falsa de datos que pueden provenir de una IA "maliciosa".


Piense en ello como una marca de verificación. Si la IA tiene una marca de verificación, entonces es válida. Si no, entonces hay razón para dudar de su legitimidad.


Como se muestra en cadenas de bloques como Polkadot , también es completamente posible que las organizaciones voten sobre ciertas reglas y mecanismos en la cadena. Se puede hacer un concepto similar para la IA, donde se pueden realizar votaciones para determinar varios factores con respecto a su legitimidad, la integridad de los datos y más.


Los votos relacionados con la IA y su conjunto de datos pueden ocurrir en cadena, incluso para cambiar la dirección o la influencia de una IA.


https://polkadot.network/blog/gov2-polkadots-next-generation-of-decentralised-governance/

Después de todo, estos modelos son tan buenos como los datos que se les proporcionan.


Con el tiempo, los datos pueden volverse intrincados. ¿Quién controla la fuente, qué quiere decir que la fuente se convierte en algo que podría ser dañino?


Por supuesto, OpenAI tiene su API de moderación, otra IA que detecta cosas que se consideran dañinas, lo cual es un paso muy valioso en la dirección correcta.
https://openai.com/blog/herramientas-de-moderación-de-contenido-nuevas-y-mejoradas/


Sin embargo, incluso para la evidencia fáctica, es decir, la historia, los datos basados en Internet deben examinarse y verificarse muchas veces.


A medida que más público confíe en estos servicios, será crucial garantizar información confiable.

Conclusión

No hay duda de que la IA cambiará el mundo. Con ChatGPT, mostró al público cómo esta tecnología podría cambiar sus medios de vida de la noche a la mañana.


Asegurar la integridad de la IA es el siguiente paso. Verificar los datos que llegan, quién los desarrolló y sus motivos/objetivos exactos será crucial para mantener los estándares éticos y, a su vez, la confianza del público en dichos modelos.


¡Realmente está empezando a sentirse como web3 ahora!