O uso de inteligência artificial nos EUA está sob escrutínio do governo dos EUA, que publicou uma Ordem Executiva sobre o assunto no início deste ano. Este panorama regulatório está mudando rapidamente, mas aqui está tudo o que você precisa saber até agora.
A regulamentação da IA nos EUA tem sido objeto de grande debate entre os formuladores de políticas dos EUA sobre como o desenvolvimento e o uso da IA devem ser governados e qual grau de supervisão legal e ética é necessário. O governo dos EUA capacitou notavelmente as agências governamentais existentes, na medida do possível, para garantir a aplicação da lei em torno da IA. Por exemplo, em abril de 2023, quatro agências federais (a Divisão de Direitos Civis do Departamento de Justiça dos Estados Unidos, o Escritório de Proteção Financeira do Consumidor, a Comissão Federal de Comércio e a Comissão de Oportunidades Iguais de Emprego dos EUA) publicaram uma declaração conjunta delineando um compromisso de aplicar as leis e regulamentos existentes em relação à IA, especificamente em torno da discriminação e preconceitos em sistemas automatizados. Agora, o governo dos EUA deu um passo adicional em direção à abordagem dos riscos e oportunidades da IA nos Estados Unidos.
Até à data, existem três ordens executivas (OE) principais que afetam a IA no governo federal e seu uso e desenvolvimento por empresas privadas. A primeira delas data de 2019, a segunda é de 2020, e a última, e mais proeminente, é de 2023. Neste post do blog, forneceremos um resumo conciso das duas primeiras ordens executivas e daremos maior ênfase à última OE.
On the 11th of February 2019, President Trump issued Executive Order 13859, Maintaining American Leadership in Artificial Intelligence. Its purpose is to establish principles and strategies to enhance the US's capabilities in AI to promote scientific discovery, economic competitiveness, and national security.
On the 3rd of December 2020, President Trump issued Executive Order 13960, Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government. The EO establishes principles for the use of AI in the Federal Government, establishes a common policy for implementing the principles, requires agencies to create an inventory of their AI use cases, and calls on the General Services Administration and the Office of Personnel Management to enhance AI implementation expertise at the agencies.
No dia 30 de outubro de 2023, o presidente Biden divulgou sua tão esperada Ordem Executiva 14110, Desenvolvimento e Uso Seguro, Seguro e Confiável da Inteligência Artificial. Esta ação é considerada uma das mais impactantes que qualquer governo no mundo tomou em relação à IA até agora. Com a emissão desta OE, os EUA dão um passo considerável na gestão da segurança e dos riscos da IA. A OE altera múltiplas agências - incluindo o NIST - sobre padrões de IA e implicações tecnológicas para segurança, proteção e confiança. Aqui estão oito ações-chave que refletem os requisitos da Ordem Executiva de IA e ilustram o que a Ordem Executiva de IA deve considerar. No entanto, a OE é muito específica e muito mais abrangente do que a OE de 2020 - ela estabelece cerca de 150 requisitos concretos para as agências, nomeando 50 agências, o que sinaliza uma abordagem de todo o governo em relação à IA. Ao mesmo tempo, a OE permaneceu muito específica enquanto estabelece prazos ambiciosos, onde a maioria dos prazos está dentro de 90 dias ou se enquadra dentro de um ano.
As OEs são documentos oficiais, numerados em sequência, através dos quais o presidente dos EUA gerencia as operações do governo federal. Uma OE é uma diretiva assinada, escrita e publicada do presidente dos EUA para o governo federal. Importante ressaltar que, embora as OEs sejam vinculativas, não devem ser confundidas com legislação, pois não passam pelo processo legislativo (por exemplo, Congresso). As OEs não criam obrigações diretamente sobre os negócios, pois são vinculativas apenas para o ramo executivo, ou seja, agências federais. No entanto, elas estão bem posicionadas para indicar a direção das políticas futuras, já que algumas ações podem exigir o apoio do Congresso para se materializar, e atividades regulatórias, uma vez que as OEs “dirigem” autoridades e agências federais a realizar (ou se abster de realizar) certos cursos de ação. Isso permite que as OEs ofereçam uma visão valiosa para compreender as áreas e tópicos sobre os quais as autoridades e agências referidas agirão, por exemplo, introduzindo novas práticas regulatórias, diretrizes ou cursos de ação.
A OE parte do princípio de que os EUA são um líder mundial em pesquisa e desenvolvimento (P&D) e implantação de IA e que o governo dos EUA deve operar com o objetivo geral de manter a liderança americana em IA. A iniciativa foca os recursos do governo federal em apoio à inovação em IA e faz isso por meio de uma estratégia coordenada.
O resultado é a Iniciativa de IA Americana, que deve ser guiada por cinco princípios: (i) impulsionar inovações tecnológicas em IA em todo o governo; (ii) promover o desenvolvimento de padrões técnicos; (iii) os EUA devem treinar sua força de trabalho com habilidades relevantes para IA; (iv) fomentar a confiança e a segurança pública nas tecnologias de IA, protegendo liberdades e privacidade; (v) abrir mercados para empresas americanas de IA.
A OE estabelece seis princípios que precisam ser implementados por agências que conduzem P&D de IA fundamental, desenvolvem e implantam aplicativos de tecnologias de IA, fornecem subsídios educacionais e regulam e orientam aplicações de tecnologias de IA.
Notavelmente, a OE também foca em aumentar o financiamento dos orçamentos das agências, garantindo acesso a recursos computacionais, padronização rápida, financiamento direto para programas de força de trabalho e criando clareza nos inventários de dados e modelos mantidos pelas agências, devendo priorizar as melhorias no acesso e na qualidade dos dados e modelos de IA.
O pano de fundo da OE é que as agências federais são incentivadas a continuar usando a IA, mas isso deve ser equilibrado com a necessidade de confiança do público. As agências devem, portanto, projetar, desenvolver, adquirir e usar a IA de uma maneira que promova a confiança e segurança pública, protegendo a privacidade, os direitos civis, as liberdades civis e os valores americanos, incluindo a conformidade com todas as leis aplicáveis.
De acordo com a seção 3 da OE, os seguintes princípios são estabelecidos para o uso da IA no governo federal:
Um aspecto-chave desta ordem executiva é a ênfase na troca de informações por agências federais sobre seu uso da IA. De acordo com esta OE, o Conselho de Diretores de Informação do Governo Federal deve ter identificado, fornecido orientações e tornado publicamente disponíveis os critérios, formatos e mecanismos para os inventários das agências sobre casos de uso de IA não classificados e não sensíveis. Essencialmente, as agências são obrigadas a preparar um inventário e, em seguida, compartilhar seus inventários com o público, considerando as leis aplicáveis, incluindo aquelas relacionadas à proteção da privacidade e informações confidenciais sobre aplicação da lei, segurança nacional e outras informações protegidas.
É importante notar que, embora o escopo da OE em relação às agências federais seja amplo, há uma exclusão significativa. Ou seja, o Departamento de Defesa e a Comunidade de Inteligência, e portanto os casos de uso de IA de inteligência, estão excluídos de sua aplicação.
Um efeito claro desta OE é que os princípios estão desempenhando um papel nas aquisições e aplicações de IA, incluindo (i) como as aplicações de IA são adquiridas, (ii) quais informações serão exigidas dos contratantes em relação às suas aplicações de IA, e (iii) como as agências testam e auditam contratos governamentais para aplicações de IA ou contratos governamentais cuja performance depende do uso de aplicações de IA.
O primeiro ponto de ação na OE é o mais significativo, pois destaca a importância da segurança nacional e exige que as empresas desenvolvam e utilizem de forma responsável os sistemas de IA mais poderosos ou impactantes. Isso inclui projetos de ciências da vida e programas de segurança cibernética. Será necessário notificar o governo e compartilhar seus resultados de testes de segurança e outras informações críticas com o governo dos EUA antes de divulgar esses novos materiais. Este é um passo proeminente que tenta abordar a proteção da segurança nacional e da saúde pública. Além disso, a administração Biden deseja desenvolver padrões, ferramentas e testes para ajudar a garantir que os sistemas de IA sejam seguros, protegidos e confiáveis para o setor militar e de inteligência, o setor privado e governos em todo o mundo.
Esta seção reconhece que um dos riscos do desenvolvimento de IA é a deterioração adicional da privacidade dos indivíduos em relação aos seus dados. Como os sistemas de IA podem ser treinados para preservar melhor a privacidade dos americanos? O presidente chama o Congresso a proteger melhor a privacidade dos americanos, incluindo os riscos impostos pela IA generativa, e a aprovar uma legislação bipartidária de privacidade de dados para proteger todos os americanos, com foco especial nas crianças. O Congresso também prioriza o apoio das agências federais para acelerar o desenvolvimento e uso de pesquisas que preservam a privacidade.
O objetivo é abordar a discriminação e violações dos direitos civis relacionadas à IA para fornecer orientações claras a proprietários, programas federais de benefícios e contratantes federais. Além disso, chama-se a abordar a discriminação algorítmica desenvolvendo treinamento, fornecendo assistência técnica e melhorando a coordenação entre o Departamento de Justiça e os escritórios federais de direitos civis. Por fim, é feita uma chamada para garantir equidade em todo o sistema de justiça criminal.
Esta parte da OE fala de duas grandes categorias aproveitando os benefícios da IA para promover - primeiro, assistência médica e, segundo, transformação da educação. Por um lado, a prioridade é melhorar o sistema de saúde americano e desenvolver medicamentos acessíveis e que salvam vidas. No entanto, nenhum programa ou diretriz foi fornecido sobre como implementar isso. No entanto, de uma perspectiva mais prática, o Departamento de Saúde e Serviços Humanos agora é encarregado de desenvolver um programa de segurança. O objetivo é abordar relatórios não saudáveis recebidos sobre — e agir para remediar – danos ou práticas de saúde inseguras envolvendo IA.
Com esta seção, o presidente aborda um dos tópicos mais relevantes para a população americana - proteger os direitos dos trabalhadores contra danos causados pela IA. Esta cláusula levantou a preocupação de que a IA está mudando os empregos e ambientes de trabalho da América, prometendo melhorar a produtividade. Além disso, os perigos da maior vigilância no local de trabalho, preconceito e deslocamento de empregos estão se tornando mais frequentes e proeminentes. As intenções da OE são claras - colocar mais poder nas mãos dos trabalhadores (gestão organizacional), revisar seu sistema de compensação e avaliar as candidaturas a empregos de maneira justa. Além disso, a OE chama a pesquisa sobre interrupções no trabalho a ser aprimorada para explorar sua escala e natureza.
Esta seção está sendo levantada porque a América atualmente se posiciona como uma das líderes em inovação em IA. Como a OE aponta, mais startups de IA levantaram capital pela primeira vez nos Estados Unidos no ano passado do que nos próximos sete países combinados. Subsequentemente, a OE baseia-se no objetivo de liderar o caminho da inovação, catalisando a pesquisa em IA em todo os EUA, promovendo um ecossistema de IA justo, aberto e competitivo ao “fornecer aos pequenos desenvolvedores e empreendedores acesso a assistência técnica e recursos, ajudando pequenas empresas a comercializar inovações em IA e incentivando a Comissão Federal de Comércio a exercer suas autoridades.”
7. Avançando a liderança americana no exterior
À medida que o número de desafios regulatórios para modelos de IA continua a aumentar globalmente, esta seção foca na colaboração entre países para desenvolver e regular a IA. O presidente visa "expandir engajamentos bilaterais, multilaterais e com múltiplas partes interessadas para colaborar sobre IA." Para aproveitar os benefícios da IA na gestão de seus riscos e garantir segurança, o Departamento de Estado, em colaboração com o Departamento de Comércio, trabalhará na criação de estruturas internacionais com parceiros internacionais e organizações de padrões.
A última seção da OE pode ser comparada a diretrizes éticas sobre a aplicação da tecnologia de IA e como o governo dos EUA pretende governar a IA. O principal ponto de ação é aprimorar os sistemas do governo, que podem representar riscos — emitindo orientações sobre como as organizações podem usar a IA e ajudando as agências a adquirir produtos de IA de maneira mais eficiente.
Embora a Ordem Executiva sobre o Desenvolvimento e Uso Seguro, Seguro e Confiável da Inteligência Artificial ainda seja uma iniciativa relativamente nova, ela já é diferente em natureza em comparação com as duas OEs anteriores sobre IA. Isso se deve ao fato de que sua natureza detalhada deve permitir uma implementação mais completa e consistente. Historicamente, de acordo com o Documento da Stanford University sobre os Desafios de Implementação dos Três Pilares da Estratégia de IA da América, as OEs sobre IA não foram implementadas com sucesso. Segundo o documento da Stanford, as razões para essa alta prevalência de não-implementação podem ser sugeridas a partir de “um vácuo de liderança e uma lacuna de capacidade nos níveis de agência e nacional”, enquanto “[A]s agências precisam de liderança e recursos para avançar de maneira significativa os objetivos desses mandatos legais”. Portanto, será visto se a última OE sobreviverá ao teste do tempo e será implementada com sucesso para ter um impacto significativo.
As informações apresentadas neste artigo são apenas para fins informativos e não devem ser interpretadas como aconselhamentos legais ou de qualquer outra forma.
Veriff só usará as suas informações para compartilhar atualizações do blog.
Você pode cancelar sua inscrição a qualquer momento. Leia nossos termos de privacidade.