paint-brush
UE põe fim à IA não regulamentadapor@konkiewicz
2,441 leituras
2,441 leituras

UE põe fim à IA não regulamentada

por Magdalena Konkiewicz4m2024/04/10
Read on Terminal Reader

Muito longo; Para ler

A Lei Europeia da IA entrará em vigor no final de 2024. A lei classifica os sistemas de IA por níveis de risco. Os sistemas de alto risco terão de seguir requisitos de transparência. As empresas serão responsáveis por manter registros dos dados de treinamento. Isto forçará as empresas a respeitar a privacidade dos dados e a melhorar a rastreabilidade.
featured image - UE põe fim à IA não regulamentada
Magdalena Konkiewicz HackerNoon profile picture

O impacto mundial e como estar preparado

Introdução

Durante o ano passado, as startups europeias de IA têm alcançado os seus concorrentes estrangeiros e introduzido produtos comparáveis ao popular ChatGPT. Com o foco em avanços e desenvolvimento rápidos, questões relacionadas à transparência, ética e impacto no usuário são às vezes colocadas em segundo plano. No entanto, é provável que isto mude com a aplicação da Lei da UE sobre IA, que deverá começar no final de 2024.


O Lei da UE sobre IA aprovado pelo Parlamento Europeu em março de 2024 introduz regulamentações pesadas sobre IA desenvolvida na UE. No entanto, o seu impacto estende-se para além das fronteiras da Europa, influenciando diretamente não só as empresas europeias de IA, mas também as empresas internacionais, incluindo as dos Estados Unidos, que oferecem os seus produtos no mercado da UE.

Quem será afetado?

A Lei da UE sobre IA classifica os sistemas de IA por níveis de risco. Os sistemas rotulados como de alto risco terão de seguir requisitos de transparência, com avaliações obrigatórias dos potenciais impactos na saúde pública, na segurança, nos direitos humanos e no bem-estar social. Serão verificados quanto a preconceitos, garantindo que não são discriminatórios e respeitam os direitos humanos fundamentais.


Além disso, os criadores de sistemas de alto risco serão obrigados a manter documentação detalhada, incluindo métodos de formação e conjuntos de dados, para demonstrar a conformidade.


Modelos básicos comparáveis ao GPT-3.5 serão regulamentados se exigirem pelo menos 10²⁵ flops de poder de computação para serem treinados. Por outro lado, haverá concessões significativas em relação aos modelos de código aberto, incentivando o desenvolvimento deste tipo de produto.


Além disso, a Lei de IA da UE lista sistemas de IA proibidos. Isto inclui categorização biométrica utilizando características sensíveis (por exemplo, raça, religião, etc.), recolha de imagens faciais, reconhecimento de emoções no local de trabalho e educacional, pontuação social, manipulação do comportamento humano e sistemas concebidos para explorar vulnerabilidades humanas.


A lei também impõe sanções por incumprimento, com penalidades que variam entre 7,5 milhões de euros ou 1,5% do volume de negócios global de uma empresa até 35 milhões de euros ou 7% do volume de negócios, dependendo da violação e da dimensão da empresa.

Como estar preparado?

Com a Lei Europeia de IA provavelmente entrando em vigor no final de 2024, é importante começar a se preparar agora, especialmente se o seu sistema for classificado como alto risco ou você está desenvolvendo modelos de IA de uso geral. Mesmo que o seu sistema não esteja sujeito a uma regulamentação rigorosa, pode valer a pena investir no desenvolvimento responsável de IA para evitar repercussões negativas sobre os utilizadores.


Recomendamos focar em todos os aspectos da construção do sistema, começando pela preparação dos dados e terminando com uma avaliação aprofundada do sistema.

Muita atenção aos dados de treinamento

Conforme descrito na Lei de IA da UE, as empresas serão responsáveis por manter registos detalhados dos conjuntos de dados. Isto forçará as empresas a respeitar a privacidade dos dados e a melhorar a rastreabilidade. Por exemplo, se um sistema produz conteúdo prejudicial, pode ser rastreado até dados inadequados ou textos tendenciosos no conjunto de dados em que foi treinado.


Isso significa que os conjuntos de dados de treinamento devem ser considerados cuidadosamente na preparação para as novas regras. Isso pode envolver a filtragem e limpeza de partes dos dados usados para treinamento ou até mesmo a construção de conjuntos de dados personalizados com curadoria de domínio e construídos propositalmente para evitar preconceitos comuns presentes em dados extraídos.

Métodos de alinhamento com feedback humano

Para cumprir as novas regras, as empresas que constroem LLMs devem investir no alinhamento dos seus modelos com as expectativas humanas, concentrando-se na veracidade, na utilidade e na inocuidade. Os principais métodos usados para alinhamento LLM são Aprendizagem por reforço com feedback humano (RLF) e Otimização de preferência direta (DPO).


Ambos os métodos coletam preferências humanas para a saída do modelo e usam esses dados para ensinar ao modelo como deve ser a saída desejada. Podemos impedir de forma bastante eficaz a maior parte da criação de conteúdo prejudicial nesta fase se fornecermos ao modelo os exemplos certos.

Avaliação aprofundada

A avaliação dos sistemas de IA será uma prioridade máxima e precisa de se tornar parte do ciclo de desenvolvimento de produtos. A sensação de ter um bom modelo deve ser substituída por uma estratégia de avaliação meticulosa e aprofundada.


Os sistemas de IA generativos são particularmente difíceis de avaliar porque o resultado não é determinístico. O texto gerado não pode ser comparado automaticamente a uma resposta “correta”. A avaliação de tais sistemas envolve feedback humano com foco em uma variedade de aspectos, como correção, utilidade e inocuidade.


Mais frequentemente, os sistemas precisam de ser avaliados além dos níveis básicos mencionados acima. Por exemplo, ao avaliar a nocividade, poderíamos dividi-la ainda mais em categorias como preconceito, discurso de ódio, racismo, etc. Dessa forma, poderíamos descobrir a um nível granular o que precisa de ser corrigido no sistema para minimizar o seu impacto negativo.

Resumo

Sem dúvida, a Lei da IA da UE é um passo importante na regulamentação da IA e significa uma nova era da IA, onde o desenvolvimento responsável da IA já não é uma opção e será agora legalmente aplicado.


A sua empresa está pronta para cumprir os novos regulamentos de IA?