paint-brush
¿Debería la producción de máquinas calificar para las protecciones de la libertad de expresión?por@pawarashishanil
203 lecturas

¿Debería la producción de máquinas calificar para las protecciones de la libertad de expresión?

por Ashish Pawar6m2024/11/28
Read on Terminal Reader

Demasiado Largo; Para Leer

A medida que los sistemas de IA generativos como GPT-4 producen contenido cada vez más sofisticado, surge una pregunta compleja: ¿deberían sus resultados calificarse como “discurso” en virtud de las protecciones de la libertad de expresión? Si bien la IA carece de intención, originalidad y responsabilidad (elementos clave del habla humana), sus resultados realistas pueden ser influyentes, controvertidos e incluso dañinos. Esto plantea desafíos legales y éticos urgentes: ¿quién es el propietario o responsable de estos resultados: el desarrollador, el usuario o nadie? ¿Los gobiernos deberían regularlos como herramientas o merecen las mismas protecciones que la expresión humana? Este artículo explora la mecánica del contenido generado por IA, profundiza en los peligros del mundo real como el discurso de odio y la desinformación, y propone un nuevo marco para categorizar los resultados de la IA como "discurso simulado". El habla simulada reconoce la capacidad de la IA para imitar la expresión humana, al tiempo que reconoce su falta de voluntad o intención, lo que nos permite regular el contenido generado por las máquinas sin infringir los derechos humanos a la libertad de expresión. En última instancia, el debate pone de relieve una división crítica: la libertad de expresión es un derecho humano: ¿se extiende a las máquinas generativas o es necesario trazar una nueva línea?
featured image - ¿Debería la producción de máquinas calificar para las protecciones de la libertad de expresión?
Ashish Pawar HackerNoon profile picture
0-item

Estás navegando por tu muro de X y ves un manifiesto político con una postura provocativa sobre la política climática. Está bien razonado, es apasionado y obtiene miles de retuits. Más tarde, te enteras de que no fue escrito por un político ni por un ser humano. En cambio, fue generado por un poderoso modelo de inteligencia artificial, un modelo de lenguaje entrenado para unir palabras en función de patrones que ha observado en vastas franjas de Internet. ¿Eso cambia tu opinión sobre el manifiesto? ¿Debería hacerlo? Y aquí está el factor decisivo: ¿es este "discurso" igual que si lo hubiera escrito un ser humano?


Cada vez es más difícil discernir la línea que separa la expresión humana del contenido generado por máquinas. Los modelos de IA generativa, como GPT-4 de OpenAI o Gemini de Google, no se limitan a generar palabras clave o respuestas sencillas: crean narrativas completas, diseñan argumentos y, en ocasiones, encienden controversias. Pueden escribir poemas, redactar peticiones o incluso generar contenido provocativo. Y esto plantea una pregunta curiosa (y ligeramente incómoda): ¿sus resultados son realmente “discurso”? Si es así, ¿ese discurso goza de las mismas protecciones legales que otorgamos a la expresión humana? ¿O debería el contenido generado por IA caer en su propia categoría, con reglas separadas?


Exploremos esto, no solo desde la perspectiva superficial de un "creador de contenido", sino profundizando en la complicada realidad técnica, las implicaciones legales y los dilemas filosóficos. Porque, honestamente, no es tan sencillo como se podría pensar.

La IA no habla, calcula

En primer lugar, corramos el telón y examinemos qué sucede realmente cuando una IA genera "habla". En esencia, un modelo de IA generativa como GPT-4 no crea frases de la nada ni genera ideas originales, sino que opera con probabilidades estadísticas, las matemáticas exactas del lenguaje.


Así es como funciona: los modelos de IA se entrenan en grandes conjuntos de datos que incluyen libros, blogs, publicaciones en redes sociales y básicamente cualquier otra cosa disponible en Internet. Durante el entrenamiento, analizan estos textos para comprender las relaciones entre las palabras. Las palabras no se almacenan en la computadora exactamente como palabras; se convierten en lo que se llama tokens , que son como pequeños bloques de construcción. Una frase como "El rápido zorro marrón" puede dividirse en tokens individuales como "[El]", "[rápido]", "[marrón]", "[zorro]". Luego, la IA aprende qué token es probable que siga a otro. Después de ingerir suficientes patrones, puede predecir el siguiente token en una secuencia.


Piénsalo un segundo: la IA no está pensando en lo que quiere decir, sino que está calculando la probabilidad matemática de la siguiente palabra. Por ejemplo, si le dices “El rápido zorro marrón salta”, el modelo podría predecir que la siguiente palabra lógica es “cambio”. Eso no es creatividad ni intención, es solo matemática.


Pero aquí está el truco: cuando se encadenan suficientes predicciones de este tipo a través de billones de parámetros (pesos numéricos masivos y complejos que guían el funcionamiento de un modelo), se obtiene algo increíblemente realista. Si a esto le sumamos técnicas como arquitecturas de transformadores y mecanismos avanzados de atención , de repente nos encontramos ante un ensayo completo sobre el cambio climático o un poema completamente realizado sobre la pérdida y la esperanza. Estos resultados parecen sorprendentemente humanos. Pero ¿son expresión?

La madriguera filosófica: ¿qué es, en definitiva, el “discurso”?

El habla, como concepto, tiene mucho peso. No se trata solo de decir algo, sino de tener algo que decir . El habla presupone intención, voluntad y responsabilidad. Cuando escribo este blog, expreso mis pensamientos, independientemente de si estás de acuerdo o no con ellos. Si estoy mal informado o soy ofensivo, soy responsable de las consecuencias de lo que digo. Mi nombre está asociado a esta publicación. Soy el pensador y esta es mi expresión.


Pero la IA generativa no tiene pensamientos. No sabe lo que está diciendo ni por qué lo está diciendo. Cuando escribes una instrucción como “Escribe un ensayo persuasivo sobre por qué los autos eléctricos deberían reemplazar a los vehículos de gasolina”, GPT-4 no sopesa los pros y los contras de la energía limpia y la geopolítica. Utiliza los patrones de lenguaje que conoce y te da la oración con mayor probabilidad estadística de seguir a tu entrada. Sin embargo, sucede algo mágico: parece un discurso.


Y aquí es donde las cosas se complican. Si una IA produce algo que influye en el discurso público (por ejemplo, genera desinformación climática que se vuelve viral), ¿deberían esas palabras estar protegidas por las leyes de libertad de expresión? Sabemos que un ser humano no produjo esas ideas, así que ¿quién, si es que hay alguien, es responsable de ellas? Profundicemos en el tema.

Desarrolladores, usuarios o IA: ¿quién es el verdadero orador?

Aquí es donde el debate sobre la libertad de expresión se convierte en un rompecabezas de responsabilidad: si los resultados de la IA generativa no son impulsados por humanos, ¿quién es dueño de esas palabras y quién es responsable cuando el contenido falla?


- Los desarrolladores: empresas como OpenAI o Google suelen argumentar que solo están construyendo herramientas, plataformas neutrales que los usuarios moldean y dirigen mediante indicaciones. “Solo entrenamos al piano”, dicen. “Depende de otros decidir qué melodías tocar”. Pero esta metáfora simplifica demasiado las cosas. Los resultados de la IA están muy influenciados por los conjuntos de datos que eligieron los desarrolladores y cómo ajustaron sus modelos. Un conjunto de datos sesgado da como resultado resultados sesgados: si surge texto dañino, ¿pueden los creadores realmente afirmar que son neutrales?


- Los usuarios: ¿Qué pasa con la persona que introduce el mensaje? Algunos sostienen que debería asumir la responsabilidad. Si le digo a la IA que "escriba un artículo incendiario que difunda información falsa sobre las vacunas" y lo hace, claramente tenía intención de hacerlo. Sin embargo, esto es más complicado cuando los usuarios, sin saberlo, provocan mensajes dañinos o cuando los mensajes se desvían del guion y entran en áreas que están fuera del control del usuario.


- La propia IA: ¿Se podría considerar a la IA como el orador? Algunos futurólogos han especulado sobre la posibilidad de que los sistemas de IA adquieran la “personalidad digital”, pero esta idea es tremendamente problemática. Las máquinas no tienen intención, no pueden asumir responsabilidades y extenderles el derecho a la libertad de expresión crea un campo de batalla para el caos legal.


La verdad es que nadie quiere asumir la responsabilidad total. Los desarrolladores le restan importancia a la responsabilidad, los usuarios la descartan como algo no intencionado y la IA es, bueno, solo una máquina. Y, sin embargo, el impacto posterior del contenido generado por IA puede ser enorme.

¿Qué sucede cuando los resultados de la IA causan daño?

Agreguemos algunos escenarios del mundo real a la mezcla para sentir el peso del problema.


- Caso 1: Discurso de odio

Digamos que un sistema de IA generativa produce contenido abiertamente racista o sexista. OpenAI y otros desarrolladores incorporan salvaguardas (como el aprendizaje de refuerzo a partir de la retroalimentación humana, RLHF) para minimizar el daño, pero ningún modelo es perfecto. La toxicidad puede pasar desapercibida. Cuando esto sucede, ¿quién tiene la culpa? La IA no sabe lo que está haciendo. ¿Fue un error en el conjunto de datos de OpenAI? ¿Un usuario humano fue irresponsable al generar sus respuestas? ¿O simplemente dejamos que estos resultados pasen desapercibidos?


- Caso 2: Desinformación

Imaginemos ahora que una IA genera artículos de noticias falsas sumamente creíbles sobre un candidato político y los inunda en las redes sociales. A diferencia de la propaganda generada por humanos, esta desinformación podría producirse en masa a gran escala con un mínimo esfuerzo. ¿Se consideran estos artículos una expresión política protegida o constituyen un peligro público que debería estar estrictamente regulado (o directamente prohibido)?


- Caso 3: Expresión artística

¿Qué ocurre cuando la IA crea arte o poesía? ¿Está protegida como “expresión” según los principios de la libertad de expresión? Y cuando la IA gana concursos de arte o genera obras creativas, ¿quién posee los derechos sobre esos resultados? ¿El desarrollador? ¿El usuario? ¿O es de dominio público?


Las respuestas son confusas, por lo que los tribunales y los responsables de las políticas están desprevenidos. Se trata de casos extremos que nadie previó cuando se redactaron las leyes de libertad de expresión.

¿Ha llegado el momento de crear una nueva categoría? “Discurso simulado”

Podría ser útil categorizar los resultados generados por la IA no como discurso protegido, sino como “discurso simulado”. Esto establecería que, si bien los resultados de la IA reflejan la expresión humana, carecen de la intención y la responsabilidad que verdaderamente definen lo que llamamos “discurso”. Con esta nueva categoría, podríamos regular el contenido generado por la IA sin socavar los derechos humanos a la libertad de expresión.


Por ejemplo:

- Los resultados generados por IA podrían requerir etiquetado de metadatos para indicar que fueron generados por máquina (por ejemplo, "Generado por GPT-4").

- Los productos que pueden causar mucho daño (por ejemplo, desinformación, propaganda extremista) podrían ser objeto de un escrutinio especial o incluso de restricciones en contextos de alto riesgo, como las elecciones.

- Las API que generan contenido de IA a gran escala podrían estar sujetas a una “limitación ética” para evitar campañas de desinformación a gran escala.


Un marco de este tipo nos daría espacio para tratar los resultados de la IA como lo que realmente son: herramientas poderosas, no expresiones improvisadas.

Reflexiones finales: discursos para humanos, herramientas para máquinas

Si sueno cauteloso es porque este debate tiene mucho más en juego que los argumentos superficiales sobre “qué es el habla”. Equiparar los resultados de la IA generativa con el habla humana corre el riesgo de trivializar los propósitos de la libertad de expresión, un acto vinculado a la intención, la creatividad y la responsabilidad. Creo que el habla es inherentemente una actividad humana. Prospera con la responsabilidad y el intercambio intencionado de ideas. Las máquinas no comparten ese espíritu, incluso si sus resultados imitan los nuestros.


En el momento en que empecemos a proteger las palabras generadas por máquinas con las mismas leyes que defienden la expresión humana, diluimos el significado de la libertad de expresión. Celebremos la IA por lo que es (una herramienta fenomenal), pero también reconozcamos dónde debe detenerse su alcance. Después de todo, la libertad de expresión tiene que ver con la humanidad, no con las probabilidades en una red neuronal.


Entonces, ¿cuál es tu opinión? ¿Estamos en una pendiente resbaladiza o simplemente estoy siendo demasiado cauteloso? Cuéntamelo, pero asegúrate de que seas tú, y no un robot de IA, quien intervenga :)