paint-brush
Italia prohíbe ChatGPT debido a preocupaciones de GDPRpor@150sec
3,150 lecturas
3,150 lecturas

Italia prohíbe ChatGPT debido a preocupaciones de GDPR

por 150Sec3m2023/04/10
Read on Terminal Reader

Demasiado Largo; Para Leer

La autoridad italiana de protección de datos emitió el viernes una orden inmediata para que OpenAI detuviera el procesamiento local de datos. La prohibición se debe a las crecientes preocupaciones de que la empresa está incumpliendo el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Se produce días después de que miles de expertos en inteligencia artificial pidieron una pausa inmediata en dicha tecnología hasta que los legisladores tengan tiempo de ajustar las regulaciones.
featured image - Italia prohíbe ChatGPT debido a preocupaciones de GDPR
150Sec HackerNoon profile picture
0-item

La autoridad italiana de protección de datos emitió el viernes una orden inmediata para que OpenAI detuviera el procesamiento local de datos. La prohibición se debe a las crecientes preocupaciones de que la compañía está violando el Reglamento General de Protección de Datos (GDPR) de la Unión Europea debido a la forma en que maneja los datos y la falta de controles para los menores.


Aunque Italia puede ser el primer país en apretar el gatillo para el uso gratuito de ChatGPT, está claro que las preocupaciones sobre la IA han aumentado rápidamente. La prohibición de Italia se produce días después de que miles de expertos en inteligencia artificial pidieron una pausa inmediata en dicha tecnología hasta que los legisladores tengan tiempo de ajustar las regulaciones de acuerdo con la innovación.


Sin embargo, la prohibición destaca que tales regulaciones de IA ya existen, al menos en algunas partes del mundo. Los legisladores de Italia ya tenían la autoridad legal para prohibir OpenAI gracias a GDPR y sus leyes que protegen los datos personales de los ciudadanos. Pero, ¿qué significa esta prohibición para el futuro de la IA?

¿Qué tan legal es la IA según el RGPD?

Las leyes europeas de RGPD son probablemente algunas de las más estrictas del mundo y ponen un gran énfasis en la protección de datos personales por encima de la ganancia comercial. Antes del anuncio de la prohibición de ChatGPT en Italia, los legisladores europeos ya estaban tratando de descifrar las muchas preguntas difíciles que surgen junto con el crecimiento de la tecnología avanzada de inteligencia artificial.


Por un lado, la naturaleza global de los datos personales digitales es cada vez más difícil de rastrear y administrar.

Por ejemplo, ChatGPT-4 reveló anteriormente que sus algoritmos se entrenaron con datos extraídos de Internet que incluían foros abiertos como Reddit. También se sabe que produce información falsa sobre personas nombradas directamente. Aparte de las preocupaciones obvias sobre la desinformación, también hace que las empresas como OpenAI sean vulnerables a una serie de problemas relacionados con los derechos de datos personales de los europeos.


También abre una lata de gusanos cuando se trata de la tecnología de IA de manera más amplia según las pautas de GDPR. La prohibición de OpenAI sugiere que los algoritmos de aprendizaje automático en general pueden infringir el RGPD de forma predeterminada, ya que la tecnología depende de inmensas cantidades de datos que probablemente incluyan información personal en algún momento.

No es solo una preocupación de la UE

La moratoria abierta que pedía detener el desarrollo de la IA avanzada incluía nombres de alto perfil que han sido notorios defensores del progreso técnico y la innovación. Esto se combina con la aparición de TikTok frente al Congreso de los EE. UU. , debido a preocupaciones similares sobre el uso de datos.


Europa y su legislación GDPR pueden estar actualmente por delante de otros países en lo que respecta a las regulaciones de privacidad de datos, pero los eventos de las últimas semanas sugieren que el progreso de las tecnologías digitales y su dependencia de nuestros datos requiere una inspección más cercana.


Aunque la forma en que la tecnología usa los datos, comercialmente o de otra manera, es una pregunta difícil que no se puede responder de la noche a la mañana, Politico le lanzó esta papa caliente a ChatGPT con respecto a las regulaciones de GDPR específicamente.


La respuesta nos deja mucho que pensar: “La UE debería considerar designar la IA generativa y los modelos de lenguaje extenso como tecnologías de 'alto riesgo', dado su potencial para crear contenido dañino y engañoso. La UE debería considerar la implementación de un marco para el desarrollo, despliegue y uso responsable de estas tecnologías, que incluya mecanismos apropiados de salvaguardia, monitoreo y supervisión”.



Este artículo fue publicado originalmente por Katie Konyn en 150sec .