Veriff
LibraryFraud centerFraud learn✨ Como os EUA, Reino Unido e UE abordam a criação de estruturas jurídicas sobre inteligência artificial (IA) 

✨ Como os EUA, Reino Unido e UE abordam a criação de estruturas jurídicas sobre inteligência artificial (IA) 

Com muitos países no processo de discutir ou já avançando com legislações para regular o uso da inteligência artificial, reunimos as informações mais importantes que você precisa saber sobre como as principais economias abordam a regulação da IA

Header image
Author
Aleksander Tsuiman
Head of Product Legal & Privacy
September 18, 2024
Fraude
Verificação de identidade
Share:
On this page
1. Estados Unidos
2. Reino Unido
3. Europa

Perspectiva global sobre as estruturas jurídicas sobre inteligência artificial (IA)

As preocupações éticas em torno da IA ganharam destaque à medida que os sistemas de IA se tornam mais integrados em nossas vidas diárias.

De acordo com o Relatório de Índice de IA de 2023 da Stanford, os registros legislativos de 127 países mostram que o número de projetos de lei contendo o termo "inteligência artificial" que foram aprovados passou de apenas 1 em 2016 para 37 em 2022. Uma análise dos registros parlamentares sobre IA em 81 países também mostra que as menções à IA nas deliberações legislativas globais aumentaram quase 6,5 vezes desde 2016.

Por que isso acontece?

Há crescentes questões éticas em torno dos sistemas de IA, já que há um aumento no uso e na pesquisa sobre sistemas de IA devido à maior disponibilidade. As questões éticas que impõem altos riscos em torno da IA e que afetam negativamente a segurança ou os direitos fundamentais tornaram-se mais evidentes para o público em geral. Esses problemas também fazem interseções profundas em áreas existentes de regulação, por exemplo, em torno da proteção de dados pessoais e privacidade, direitos autorais e proteção contra discriminação. Enquanto isso, startups e grandes empresas estão em uma corrida para implantar e liberar modelos de IA mais novos e poderosos, como os relacionados à IA generativa.

Efeito em nível político

A crescente popularidade da IA levou organizações intergovernamentais, nacionais e regionais a tomar medidas em direção à governança da IA em nível estratégico e operacional. Os governos estão cada vez mais motivados a abordar as crescentes preocupações sociais e éticas a fim de criar confiança e maximizar os benefícios da tecnologia. Portanto, a governança das tecnologias de IA tornou-se essencial para os governos em todo o mundo.

Riscos potenciais da regulação

O aumento da regulação da IA também traz riscos. Um deles é o desafio de encontrar um equilíbrio entre capacitar a confiança e garantir segurança, em contrapartida à superregulação que pode levar a inovações sufocadas e estagnação econômica. Essa é também a razão pela qual alguns governos, como o Reino Unido e os EUA, atuaram de maneira relativamente conservadora em relação à regulação. Outro potencial contratempo para as empresas é um mosaico regulatório que dificulta a entrada no mercado, resultando em empresas evitando a expansão. É aqui que a aliança intergovernamental e internacional é necessária - como o motor é muitas vezes a sinergia econômica, então entidades como o Conselho de Comércio e Tecnologia EUA-UE têm potencial para reduzir os obstáculos para empresas que buscam operar além-fronteiras ao criar alinhamento em nível de políticas.

1. Estados Unidos

The US does not currently have a uniform and federal “AI law” as compared to what was adopted in the EU. Although the intent for AI regulation in the US is accelerating then not many initiatives have succeeded in the legislature. 

Há também uma atividade crescente em nível estadual, com diferentes estados pretendendo regular diferentes aspectos da IA.  Por exemplo:

  • Os estados do Colorado e Utah são os primeiros a terem passado com sucesso leis de governança de IA abrangentes e transversais do setor privado, que afetam diretamente como o setor privado utiliza sistemas de IA. Vale ressaltar que, embora a lei em Utah seja mais focada na regulação do uso de modelos de IA generativa, a Lei de Proteção ao Consumidor da IA do Colorado apresenta um alto nível de semelhança com a Lei de IA da UE. Isso indica que já há um certo nível de “efeito Bruxelas” ocorrendo devido à elaboração de leis na UE destinada a regular sistemas de IA e modelos de IA, inclusive designando certos sistemas de IA e riscos aceitáveis e inaceitáveis.
  • A Califórnia também é um estado que está avançando com várias leis sobre a regulação da inteligência artificial. No entanto, ela se concentra mais em regular maiores modelos, conteúdo sintético/gerado e transparência relacionada.
  • Diversos outros estados também estão processando leis que se aplicam a determinados e específicos casos de uso de certos modelos de IA e sistemas de IA. Por exemplo, focando em casos de uso relacionados ao emprego.

O cenário das leis estaduais de IA nos EUA está mudando rapidamente, então é bom acompanhar um rastreador de legislações disponível de uma fonte autorizada (aqui está um exemplo) para se manter atualizado.

Embora os EUA não tenham um framework regulatório abrangente para IA, há um forte sentimento entre as autoridades dos EUA de que questões relacionadas à IA, como viés e discriminação potencial, podem e devem ser aplicadas sob o atual framework legislativo. No dia 25 de abril de 2023, uma "Declaração Conjunta sobre Esforços de Cumprimento Contra Discriminação e Viés em Sistemas Automatizados" foi divulgada pela Comissão Federal de Comércio, Escritório de Proteção Financeira do Consumidor, Divisão de Direitos Civis do Departamento de Justiça e Comissão de Oportunidades de Emprego Igualitário. De acordo com a declaração, as autoridades prometem aplicar vigorosamente suas autoridades coletivas e monitorar o desenvolvimento e o uso de sistemas automatizados.

Um casal de iniciativas também expressa um forte sentimento sobre a direção política pretendida e também cria certas obrigações regulatórias. Por exemplo, a Casa Branca divulgou o "Blueprint for an AI Bill of Rights" em outubro de 2022. No entanto, atualmente, este é um roteiro não vinculativo e ainda fornece orientações valiosas para entidades sobre o que esperar em relação a futuras leis que afetam o uso de IA nos EUA. Embora não tenha força de lei, delineia princípios e recomendações chave que podem moldar os frameworks legislativos e regulatórios. Compreender essas diretrizes pode ajudar as organizações a se prepararem para obrigações legais potenciais e alinhar suas práticas de IA com os desenvolvimentos esperados.

Em segundo lugar, em uma nota mais importante, no dia 30 de outubro de 2023, o presidente Biden divulgou sua aguardada Ordem Executiva sobre o Desenvolvimento e Uso Seguro, Seguro e Confiável da Inteligência Artificial. Com a Ordem Executiva, o presidente direciona ações para proteger os americanos dos potenciais riscos dos sistemas de IA, para fortalecer as capacidades da nação em inteligência artificial (IA), promover a descoberta científica, competitividade econômica e segurança nacional.

"O aumento da regulação da IA também traz riscos. Um deles é o desafio de encontrar um equilíbrio entre capacitar a confiança e garantir segurança, em contrapartida à superregulação que pode levar a inovações sufocadas e estagnação econômica."

Aleksander Tsuiman, Chefe de Produtos Jurídicos e Privacidade, Veriff

2. Reino Unido

Embora o setor de IA do Reino Unido esteja em crescimento (de acordo com o estudo do setor de IA do Reino Unido), o país é relativamente leve em regulamentação.

O Departamento de Ciência, Inovação e Tecnologia publicou um documento branco em 29 de março de 2023 intitulado "Regulação da IA: Uma Abordagem Pro-Inovação", que apresenta as propostas do Governo do Reino Unido para regular a inteligência artificial (IA) de uma forma pro-inovação. O documento reconhece os potenciais benefícios da IA, como melhorar a saúde, aprimorar sistemas de transporte e impulsionar a produtividade econômica, ao mesmo tempo que reconhece os riscos e desafios potenciais associados a essa tecnologia emergente.

Atualmente, o Reino Unido não possui uma regulação abrangente de IA em vigor, e a princípio parece que não há uma séria a caminho. No entanto, o governo do Reino Unido pretende dar mais poderes aos reguladores existentes por setor para abordar os riscos da IA em torno dos seguintes 5 princípios: (i) segurança, proteção e robustez; (ii) transparência e explicabilidade apropriadas; (iii) equidade; (iv) responsabilidade e governança; e (v) contestação e reparação.

O governo anterior do Reino Unido confirmou que evitará "legislação severa" para não prejudicar a capacidade de responder aos avanços tecnológicos e, em vez disso, "adotará uma abordagem adaptável para regular a IA", permitindo que os reguladores usem sua experiência para modificar a implementação dos princípios para se adequar ao contexto específico da IA no respectivo setor do regulador. Os reguladores provavelmente terão o dever de aplicar os princípios caso não consigam implementá-los e aplicá-los voluntariamente. Reguladores chave são incentivados a emitir mais diretrizes e recursos sobre como implementar os cinco princípios e como os princípios se aplicarão em seus setores específicos.

Por exemplo, em abril de 2024, a Autoridade de Conduta Financeira do Reino Unido (FCA), a autoridade que supervisiona serviços financeiros e empresas de fintech no Reino Unido, publicou sua atualização sobre IA. Ao olhar para trás e para frente, a FCA enfatizou que está colaborando com empresas para entender o uso de IA no setor, mas também focando claramente no aumento dos riscos em torno da resiliência operacional, terceirização e partes terceiras críticas. As empresas precisam levar isso em consideração ao serem questionadas sobre seu uso de IA.

No entanto, é provável que haja algumas lacunas entre as várias abordagens dos reguladores e, portanto, é possível que a legislação seja necessária para garantir uma consideração consistente dos princípios. Além disso, espera-se que o governo do Reino Unido reavalie sua abordagem caso a abordagem relativamente desconcentrada cause um aumento do “mosaico regulatório.”

Os primeiros sinais de tal reavaliação já estão aqui, pois as discussões em torno de alguma nível de regulação de modelos de IA e fornecedores de modelos se intensificaram com o novo governo assumindo o cargo. À medida que o Reino Unido busca fortalecer sua relação com a UE, o potencial “Projeto de Lei de IA do Reino Unido” pode ser um passo em direção a tal alinhamento, especialmente considerando o fato de que o Reino Unido, os EUA e a UE assinaram o primeiro tratado internacional abordando os riscos da inteligência artificial.

3. Europa

Em abril de 2021, a Comissão Europeia propôs o primeiro framework abrangente para regular o uso de IA. A prioridade da União Europeia é garantir que os sistemas de IA utilizados e desenvolvidos na União Europeia sejam seguros, transparentes, rastreáveis, não discriminatórios e ambientalmente amigáveis.

Como o Regulamento Geral de Proteção de Dados (GDPR) da UE, que regula o processamento de dados pessoais, a Lei de IA da UE pode se tornar um padrão global, determinando até que ponto a IA tem um efeito positivo e não negativo. A regulação de IA da UE já está causando impacto internacionalmente e você pode ler mais sobre isso em nosso blog anterior.

Quer saber mais?

Converse com um especialista em conformidade da Veriff para saber como IDV pode ajudar o seu negócio.

Fique por dentro das notícias da Veriff. Assine o nosso boletim informativo.

Veriff só usará as suas informações para compartilhar atualizações do blog.

Você pode cancelar sua inscrição a qualquer momento. Leia nossos termos de privacidade.