paint-brush
Itália proíbe ChatGPT devido a preocupações com GDPRpor@150sec
3,150 leituras
3,150 leituras

Itália proíbe ChatGPT devido a preocupações com GDPR

por 150Sec3m2023/04/10
Read on Terminal Reader

Muito longo; Para ler

A autoridade italiana de proteção de dados emitiu na sexta-feira uma ordem imediata para a OpenAI interromper o processamento de dados local. A proibição se deve a crescentes preocupações de que a empresa esteja violando o Regulamento Geral de Proteção de Dados da União Europeia (GDPR).
featured image - Itália proíbe ChatGPT devido a preocupações com GDPR
150Sec HackerNoon profile picture
0-item

A autoridade italiana de proteção de dados emitiu na sexta-feira uma ordem imediata para a OpenAI interromper o processamento de dados local. A proibição se deve a crescentes preocupações de que a empresa esteja violando o Regulamento Geral de Proteção de Dados da União Europeia (GDPR) devido à maneira como lida com dados e à falta de controles para menores.


Embora a Itália possa ser o primeiro país a acionar o uso gratuito do ChatGPT, está claro que as preocupações com a IA estão aumentando rapidamente. A proibição da Itália ocorre dias depois que milhares de especialistas em IA pediram uma pausa imediata em tal tecnologia até que os formuladores de políticas tenham tempo para ajustar os regulamentos de acordo com a inovação.


No entanto, a proibição destaca que tais regulamentações de IA já existem, pelo menos em algumas partes do mundo. Os legisladores da Itália já tinham autoridade legal para proibir a OpenAI graças ao GDPR e suas leis que protegem os dados pessoais dos cidadãos. Mas o que essa proibição significa para o futuro da IA?

Quão legal é a IA sob o GDPR?

As leis GDPR da Europa são provavelmente algumas das mais rigorosas do mundo, colocando grande ênfase na proteção de dados pessoais antes do ganho comercial. Antes do anúncio da proibição do ChatGPT na Itália, os legisladores europeus já estavam tentando desvendar as muitas questões complicadas que surgem junto com o crescimento da tecnologia avançada de IA.


Por um lado, a natureza global dos dados pessoais digitais é cada vez mais difícil de rastrear e gerenciar.

Por exemplo, o ChatGPT-4 divulgou anteriormente que seus algoritmos foram treinados em dados extraídos da Internet que incluíam fóruns abertos como o Reddit. Também é conhecido por produzir informações falsas sobre indivíduos nomeados diretamente. Além das preocupações óbvias em torno da desinformação, também torna empresas como a OpenAI vulneráveis a uma série de problemas relacionados aos direitos dos direitos de dados pessoais dos europeus.


Também abre uma lata de vermes quando se trata de tecnologia de IA de forma mais ampla sob as diretrizes do GDPR. A proibição do OpenAI sugere que os algoritmos de aprendizado de máquina em geral podem entrar em conflito com o GDPR por padrão, já que a tecnologia depende de imensas quantidades de dados que provavelmente incluirão informações pessoais em algum momento.

Não é apenas uma preocupação da UE

A moratória aberta pedindo uma pausa no desenvolvimento da IA avançada incluiu nomes de destaque que têm sido notórios defensores do progresso técnico e da inovação. Isso está associado à aparição do TikTok no Congresso dos EUA , decorrente de preocupações semelhantes com o uso de dados.


A Europa e sua legislação GDPR podem estar à frente de outros países quando se trata de regulamentações de privacidade de dados, mas os eventos das últimas semanas sugerem que o progresso das tecnologias digitais e sua dependência de nossos dados exigem uma inspeção mais detalhada.


Embora a forma como os dados são usados pela tecnologia, comercialmente ou não, seja uma questão complicada que não pode ser respondida da noite para o dia, o Politico jogou essa batata quente para o próprio ChatGPT com relação aos regulamentos GDPR especificamente.


A resposta nos deixa com bastante o que pensar: “A UE deve considerar a designação de IA generativa e grandes modelos de linguagem como tecnologias de 'alto risco', devido ao seu potencial de criar conteúdo prejudicial e enganoso. A UE deve considerar a implementação de uma estrutura para o desenvolvimento, implantação e uso responsável dessas tecnologias, que inclua salvaguardas, monitoramento e mecanismos de supervisão apropriados.”



Este artigo foi originalmente publicado por Katie Konyn em 150sec .