Durante o ano passado, as startups europeias de IA têm alcançado os seus concorrentes estrangeiros e introduzido produtos comparáveis ao popular ChatGPT. Com o foco em avanços e desenvolvimento rápidos, questões relacionadas à transparência, ética e impacto no usuário são às vezes colocadas em segundo plano. No entanto, é provável que isto mude com a aplicação da Lei da UE sobre IA, que deverá começar no final de 2024.
O
A Lei da UE sobre IA classifica os sistemas de IA por níveis de risco. Os sistemas rotulados como de alto risco terão de seguir requisitos de transparência, com avaliações obrigatórias dos potenciais impactos na saúde pública, na segurança, nos direitos humanos e no bem-estar social. Serão verificados quanto a preconceitos, garantindo que não são discriminatórios e respeitam os direitos humanos fundamentais.
Além disso, os criadores de sistemas de alto risco serão obrigados a manter documentação detalhada, incluindo métodos de formação e conjuntos de dados, para demonstrar a conformidade.
Modelos básicos comparáveis ao GPT-3.5 serão regulamentados se exigirem pelo menos 10²⁵ flops de poder de computação para serem treinados. Por outro lado, haverá concessões significativas em relação aos modelos de código aberto, incentivando o desenvolvimento deste tipo de produto.
Além disso, a Lei de IA da UE lista sistemas de IA proibidos. Isto inclui categorização biométrica utilizando características sensíveis (por exemplo, raça, religião, etc.), recolha de imagens faciais, reconhecimento de emoções no local de trabalho e educacional, pontuação social, manipulação do comportamento humano e sistemas concebidos para explorar vulnerabilidades humanas.
A lei também impõe sanções por incumprimento, com penalidades que variam entre 7,5 milhões de euros ou 1,5% do volume de negócios global de uma empresa até 35 milhões de euros ou 7% do volume de negócios, dependendo da violação e da dimensão da empresa.
Com a Lei Europeia de IA provavelmente entrando em vigor no final de 2024, é importante começar a se preparar agora, especialmente se o seu sistema for classificado como
Recomendamos focar em todos os aspectos da construção do sistema, começando pela preparação dos dados e terminando com uma avaliação aprofundada do sistema.
Conforme descrito na Lei de IA da UE, as empresas serão responsáveis por manter registos detalhados dos conjuntos de dados. Isto forçará as empresas a respeitar a privacidade dos dados e a melhorar a rastreabilidade. Por exemplo, se um sistema produz conteúdo prejudicial, pode ser rastreado até dados inadequados ou textos tendenciosos no conjunto de dados em que foi treinado.
Isso significa que os conjuntos de dados de treinamento devem ser considerados cuidadosamente na preparação para as novas regras. Isso pode envolver a filtragem e limpeza de partes dos dados usados para treinamento ou até mesmo a construção de conjuntos de dados personalizados com curadoria de domínio e construídos propositalmente para evitar preconceitos comuns presentes em dados extraídos.
Para cumprir as novas regras, as empresas que constroem LLMs devem investir no alinhamento dos seus modelos com as expectativas humanas, concentrando-se na veracidade, na utilidade e na inocuidade. Os principais métodos usados para alinhamento LLM são
Ambos os métodos coletam preferências humanas para a saída do modelo e usam esses dados para ensinar ao modelo como deve ser a saída desejada. Podemos impedir de forma bastante eficaz a maior parte da criação de conteúdo prejudicial nesta fase se fornecermos ao modelo os exemplos certos.
A avaliação dos sistemas de IA será uma prioridade máxima e precisa de se tornar parte do ciclo de desenvolvimento de produtos. A sensação de ter um bom modelo deve ser substituída por uma estratégia de avaliação meticulosa e aprofundada.
Os sistemas de IA generativos são particularmente difíceis de avaliar porque o resultado não é determinístico. O texto gerado não pode ser comparado automaticamente a uma resposta “correta”. A avaliação de tais sistemas envolve feedback humano com foco em uma variedade de aspectos, como correção, utilidade e inocuidade.
Mais frequentemente, os sistemas precisam de ser avaliados além dos níveis básicos mencionados acima. Por exemplo, ao avaliar a nocividade, poderíamos dividi-la ainda mais em categorias como preconceito, discurso de ódio, racismo, etc. Dessa forma, poderíamos descobrir a um nível granular o que precisa de ser corrigido no sistema para minimizar o seu impacto negativo.
Sem dúvida, a Lei da IA da UE é um passo importante na regulamentação da IA e significa uma nova era da IA, onde o desenvolvimento responsável da IA já não é uma opção e será agora legalmente aplicado.
A sua empresa está pronta para cumprir os novos regulamentos de IA?