Veriff
LibraryFraud centerFraud learn✨ A Lei de IA da União Europeia: Introdução à primeira regulamentação sobre inteligência artificial

✨ A Lei de IA da União Europeia: Introdução à primeira regulamentação sobre inteligência artificial

O uso de inteligência artificial na União Europeia (UE) será regulamentado pela Lei de IA da UE, a primeira lei de IA abrangente do mundo. Descubra como isso funciona.

alerta de fraudador
Author
Aleksander Tsuiman
Head of Product Legal & Privacy
August 14, 2024
Fraude
Prevenção de Fraudes
Share:
On this page
1. O que é a Lei de IA da UE?
2. A Lei de IA da UE já foi adotada?
3. Como a UE regulará com a Lei de IA?
4. A Lei de IA contém:
5. Para quem se aplica a Lei de IA?
6. Como garantir a conformidade com a Lei de IA?
7. Aplicação e penalidades da Lei de IA

A Lei de Inteligência Artificial da União Europeia explicada

Technology and artificial intelligence (AI) advances have raised the call for protective regulation to prevent risks and harmful outcomes for populations across the globe. One place where these rules have taken shape is Europe. In April 2021, the European Union´s Commission proposed the first comprehensive framework to regulate the use of AI. The EU’s priority is ensuring that AI systems used in the EU are safe, transparent, traceable, non-discriminatory, and environmentally friendly.

At Veriff, we´re constantly developing our biometric identification solutions. We use AI and machine learning to make our identification process faster, safer, and better. We operate globally, and our legal teams continually monitor the various local legal landscapes, so we are perfectly positioned to navigate these regulations.​

homens usando IA em um computador

1. O que é a Lei de IA da UE?

A Lei de IA é uma legislação europeia sobre inteligência artificial (IA) – a primeira de uma grande potência econômica global.

Foi proposta pela Comissão da UE em abril de 2021.

Assim como o Regulamento Geral sobre a Proteção de Dados da UE (GDPR) em 2018, a Lei de IA da UE pode se tornar um padrão global, determinando até que ponto a IA tem um efeito positivo em vez de negativo em sua vida, onde quer que você esteja. A regulamentação de IA da UE já está causando impacto internacionalmente.

2. A Lei de IA da UE já foi adotada e está em vigor?

Sim, a Lei de IA entrou em vigor em 1º de agosto de 2024. Isso marca a contagem regressiva para muitos outros marcos da Lei de IA.

Para a maioria dos negócios, essas são as datas importantes a serem lembradas:

  • Até fevereiro de 2025, 6 meses após a aplicação, proibições para sistemas de IA que representam riscos inaceitáveis (referidos como "sistemas de IA proibidos"). Isso significa que, até esse momento, as empresas precisarão entender se os sistemas que fornecem ou usam seriam considerados proibidos e fazer ajustes, se necessário.
  • Até agosto de 2025, 12 meses a partir da entrada em vigor, obrigações para fornecedores de modelos de IA de uso geral se aplicam junto com a primeira revisão anual da Comissão da UE das listas de sistemas de IA proibidos e sistemas de IA de alto risco sob o Anexo III da Lei de IA. Os Anexos III e I são anexos-chave da Lei de IA com base nos quais a designação de sistema de IA de alto risco é construída.
  • Até fevereiro de 2026, 18 meses a partir da entrada em vigor, a Comissão da UE deve fornecer diretrizes especificando a implementação prática para a classificação de sistemas como sistemas de IA de alto risco. Este será um marco importante e esperamos que esclareça diversas áreas cinzentas para muitos negócios.
  • Em agosto de 2026, 24 meses a partir da entrada em vigor, a Lei de IA se torna aplicável de forma geral junto com obrigações-chave dos sistemas de IA de alto risco conectadas com o Anexo III da Lei de IA. É importante notar que, caso um sistema tenha sido colocado em operação ou no mercado antes de agosto de 2026, então as obrigações relacionadas aos sistemas de IA de alto risco se aplicam apenas se, a partir de agosto de 2026, esses sistemas estiverem sujeitos a mudanças significativas em seus projetos.
  • Em agosto de 2027, 36 meses a partir da entrada em vigor, os sistemas de IA de alto risco sob o Anexo I precisarão cumprir com as obrigações decorrentes da Lei de IA.

A Lei de IA agora inclui avaliações regulares para mantê-la relevante e atualizada. Foi introduzido um sistema de avaliação periódica para garantir a relevância e atualizações contínuas. A cada quatro anos a partir da entrada em vigor e a partir de então, a Comissão da UE avaliará a necessidade de estender ou adicionar itens às listas de IA de alto risco, alterar os requisitos de transparência e revisar a eficácia do sistema de supervisão e governança. A função do Escritório de IA, o processo de padronização e os códigos de conduta voluntários também serão avaliados.

3. How will the EU regulate with the AI Act?

A Lei de IA é proposta seguindo estes objetivos:

  • garantir que os sistemas de IA colocados no mercado da UE e usados na UE sejam seguros e respeitem as leis existentes sobre direitos fundamentais e valores da União;

  • garantir certeza jurídica para facilitar investimento e inovação em IA;

  • aumentar a governança e a aplicação eficaz da legislação existente sobre direitos fundamentais e requisitos de segurança aplicáveis aos sistemas de IA;

  • facilitar o desenvolvimento de um mercado único para aplicações de IA legais, seguras e confiáveis e prevenir a fragmentação do mercado.

  • A UE regulará os sistemas de IA com base no nível de risco que representam para a saúde, segurança e direitos fundamentais de uma pessoa. Essa abordagem deve adaptar o tipo e o conteúdo dessas regras à intensidade e ao escopo dos riscos (alto risco ou risco mínimo) que os sistemas de IA podem gerar. A legislação atribui aplicações de IA a três categorias de risco.

  • Primeiro, aplicações e sistemas que criam um risco inaceitável, como a coleta indiscriminada de imagens faciais da internet ou de filmagens de CCTV para criar bancos de dados de reconhecimento facial, marcas sociais controladas pelo governo, sistemas de IA ou aplicativos que manipulam o comportamento humano para contornar a livre vontade dos usuários, são banidos.

  • Segundo, sistemas de IA de alto risco, potencialmente como sistemas para determinar acesso a instituições educacionais ou para recrutar pessoas, estão sujeitos a requisitos legais específicos e rigorosos, incluindo sistemas de mitigação de risco, conjuntos de dados de alta qualidade, registro de atividades, documentação detalhada, informações claras para o usuário, supervisão humana e um alto nível de robustez, precisão e cibersegurança.

  • Aplicações que não estão explicitamente banidas ou listadas como de alto risco são reguladas de forma leve. Esses sistemas são chamados de sistemas de risco mínimo, e presumivelmente a vasta maioria dos sistemas de IA se enquadraria nessa categoria. O requisito principal aqui é a transparência - caso um sistema de IA seja projetado para interagir com uma pessoa, deve ser informado que a pessoa está interagindo com um sistema de IA, a menos que seja evidentemente óbvio que a interação está sendo feita com um sistema de IA. Além disso, os provedores cujos sistemas de IA geram ou manipulam saídas na forma de conteúdo audiovisual e texto devem ter as respectivas marcações.

  • Um conjunto separado de regras é introduzido para modelos de IA de uso geral.

Nas próximas seções, examinaremos a regulamentação em torno de sistemas de IA proibidos, sistemas de IA de alto risco e modelos de IA de uso geral.

Fale conosco

Converse com um especialista em fraudes da Veriff para saber como IDV pode ajudar o seu negócio.

4. A Lei de IA contém:

  • Informações sobre seu escopo e definições aplicáveis para participantes no ciclo de vida e ecossistema da IA

  • Estabelece sistemas de IA proibidos

  • Regula minuciosamente sistemas de IA de alto risco

  • Medidas que apoiam a inovação (por exemplo, ambientes regulatórios de teste)

  • Governança e implementação da Lei de IA e códigos de conduta

  • Regulamentação sobre multas

5. Para quem se aplica a Lei de IA?

  • Provedores de sistemas de IA que colocam no mercado ou colocam em operação sistemas de IA na UE, independentemente de onde esses provedores estejam estabelecidos, na UE ou em um país terceiro (por exemplo, EUA);

  • Implementadores de sistemas de IA localizados na UE;

  • Provedores e usuários de sistemas de IA localizados em um país terceiro, mas onde a saída produzida pelo sistema é usada na UE ou o sistema afeta pessoas na UE.

6. Como garantir a conformidade com a Lei de IA?

É aconselhável monitorar de perto os desenvolvimentos em torno da Lei de IA para se manter atualizado com todas as orientações relevantes que serão emitidas. No entanto, aqui estão algumas dicas para compartilhar:

  • Analise o texto - sua organização precisa identificar onde na "cadeia de valor" da IA sua organização se encontra. Por exemplo, ser um provedor ou um usuário de sistemas de IA pode sujeitá-lo a obrigações potencialmente diferentes. Isso precisará ser acompanhado do mapeamento de onde sua organização utiliza sistemas e modelos de IA.

  • Depois de concluir o mapeamento, analise os sistemas para entender a designação de risco sob a Lei de IA e as obrigações relacionadas a isso. Utilize ajuda técnica e legal externa, se necessário.

  • Trabalhe com seus departamentos de Jurídico, Risco, Qualidade, Engenharia/Desenvolvimento de Produto para identificar riscos em torno do uso de IA em geral.

  • Haverá uma criação extensa de normas técnicas e não técnicas respectivas - seja pelas organizações de padronização europeias e/ou pela Comissão Europeia, envolvendo especialistas. O trabalho em torno disso vale a pena ser monitorado. Já existem alguns padrões para entender certas obrigações que concernem os produtos identificados anteriormente como sistemas de IA de alto risco. Além disso, já existem padrões em relação a sistemas de gestão de qualidade e gestão de riscos. Eles fornecem uma base para o que deve ser considerado caso você se encaixe na categoria de provedor de IA de alto risco.;

7. Aplicação e penalidades da Lei de IA

As multas sob a Lei de IA variariam de €35 milhões ou 7% do faturamento global anual (o que for maior) para violações de aplicações de IA proibidas, €15 milhões ou 3% para violações de outras obrigações, e €7,5 milhões ou 1,5% por fornecer informações incorretas. Multas mais proporcionais são previstas para PMEs e startups em caso de infrações à Lei de IA.

Fale conosco

Converse com um especialista em conformidade da Veriff para saber como IDV pode ajudar o seu negócio.

Fique por dentro das notícias da Veriff. Assine o nosso boletim informativo.

Veriff só usará as suas informações para compartilhar atualizações do blog.

Você pode cancelar sua inscrição a qualquer momento. Leia nossos termos de privacidade.