El uso de inteligencia artificial en EE. UU. está bajo el escrutinio del gobierno de EE. UU., que publicó una Orden Ejecutiva sobre el tema a principios de este año. Este panorama regulatorio está cambiando rápidamente, pero aquí está todo lo que necesitas saber hasta ahora.
La regulación de IA en EE. UU. ha estado en un gran debate por parte de los responsables de políticas de EE. UU. sobre cómo se debería gobernar el desarrollo y uso de la IA y qué grado de supervisión legal y ética se necesita. El gobierno de EE. UU. ha empoderado notablemente a las agencias gubernamentales existentes, en la medida de lo posible, para garantizar la aplicación de la ley en torno a la IA. Por ejemplo, en abril de 2023, cuatro agencias federales (la División de Derechos Civiles del Departamento de Justicia de los Estados Unidos, la Oficina de Protección Financiera del Consumidor, la Comisión Federal de Comercio y la Comisión de Igualdad de Oportunidades en el Empleo de EE. UU.) emitieron una declaración conjunta que describe un compromiso para hacer cumplir las leyes y regulaciones existentes en torno a la IA, específicamente en relación con la discriminación y el sesgo en sistemas automatizados. Ahora, el gobierno de EE. UU. ha dado un paso adicional hacia abordar los riesgos y oportunidades de la IA en Estados Unidos.
Hasta la fecha, hay tres órdenes ejecutivas clave (EO) que afectan la IA en el Gobierno Federal y su uso y desarrollo por parte de empresas privadas. La primera de ellas data de 2019, la segunda es de 2020 y la última, y más prominente, es de 2023. En esta publicación del blog, daremos un resumen conciso de las dos primeras órdenes ejecutivas y pondremos mayor énfasis en la última EO.
On the 11th of February 2019, President Trump issued Executive Order 13859, Maintaining American Leadership in Artificial Intelligence. Its purpose is to establish principles and strategies to enhance the US's capabilities in AI to promote scientific discovery, economic competitiveness, and national security.
On the 3rd of December 2020, President Trump issued Executive Order 13960, Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government. The EO establishes principles for the use of AI in the Federal Government, establishes a common policy for implementing the principles, requires agencies to create an inventory of their AI use cases, and calls on the General Services Administration and the Office of Personnel Management to enhance AI implementation expertise at the agencies.
El 30 de octubre de 2023, el Presidente Biden publicó su tan esperado Orden Ejecutiva 14110, Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial. Se considera una de las acciones más impactantes que cualquier gobierno en el mundo ha tomado sobre IA hasta ahora. Con la emisión de esta EO, EE. UU. da un paso considerable en la gestión de la seguridad y los riesgos de la IA. La EO afecta a múltiples agencias, incluido el NIST, sobre los estándares de IA y las implicaciones tecnológicas para la seguridad, la confianza y la seguridad. Aquí hay ocho acciones clave que reflejan los requisitos de la Orden Ejecutiva de IA e ilustran por qué se guía la Orden Ejecutiva de IA. Aún así, la EO es muy específica y mucho más amplia que la EO de 2020; establece alrededor de 150 requisitos concretos y reales para las agencias, nombrando 50 agencias, lo que señala un enfoque de gobierno total hacia la IA. Al mismo tiempo, la EO ha permanecido muy específica mientras establece plazos ambiciosos, donde la mayoría de los plazos están dentro de los 90 días o caen dentro de un año.
Las EO son documentos oficiales, numerados consecutivamente, a través de los cuales el Presidente de EE. UU. gestiona las operaciones del Gobierno Federal. Una EO es una directiva firmada, escrita y publicada del Presidente de EE. UU. al Gobierno Federal. Es importante destacar que, a pesar de que las EO son vinculantes, no deben confundirse con la legislación, ya que no pasan por el proceso legislativo (por ejemplo, el Congreso). Las EO no crean obligaciones directas sobre las empresas, ya que son vinculantes solo para el poder ejecutivo, es decir, las agencias federales. Sin embargo, están bien posicionadas para indicar la dirección de políticas futuras, ya que algunas acciones pueden requerir el respaldo del Congreso para materializarse y las actividades regulatorias, ya que las EO “dirigen” a las autoridades y agencias federales para llevar a cabo (o abstenerse de llevar a cabo) ciertos cursos de acción. Esto permite que las EO brinden valiosa información para entender las áreas y temas sobre los cuales las autoridades y agencias referidas actuarán, por ejemplo, introduciendo nuevas prácticas regulatorias, directrices o cursos de acción.
La EO comienza desde la premisa de que EE. UU. es un líder mundial en investigación, desarrollo (I+D) y despliegue de IA, y que el Gobierno de EE. UU. debería operar con un objetivo general de mantener el liderazgo estadounidense en IA. La iniciativa enfoca los recursos del Gobierno Federal en apoyo a la innovación en IA y lo hace a través de una estrategia coordinada.
El resultado es la Iniciativa de IA Estadounidense, que debería ser guiada por cinco principios: (i) fomentar avances tecnológicos en IA en todo el gobierno; ii) impulsar el desarrollo de estándares técnicos; iii) EE. UU. debe capacitar a su fuerza laboral con habilidades relevantes para la IA; iv) fomentar la confianza y la seguridad del público en las tecnologías de IA mediante la protección de libertades y privacidad; v) abrir los mercados para las empresas de IA estadounidenses.
La EO establece seis principios que deben ser implementados por las agencias que realizan I+D en IA fundamental, desarrollan y despliegan aplicaciones de tecnologías de IA, proporcionan subvenciones educativas y regulan y brindan orientación sobre aplicaciones de tecnologías de IA.
Notablemente, la EO también se enfoca en mejorar la financiación a partir de los presupuestos de las agencias, otorgar acceso a recursos computacionales, la estandarización rápida, la financiación directa a programas laborales y crear claridad en los inventarios de datos y modelos mantenidos por las agencias y debe priorizar mejoras en el acceso y la calidad de los datos y modelos de IA.
El contexto de la EO es que se alienta a las agencias federales a continuar utilizando IA, pero debe equilibrarse con la necesidad de confianza del público. Por lo tanto, las agencias deben diseñar, desarrollar, adquirir y usar IA de una manera que fomente la confianza y la seguridad del público mientras protegen la privacidad, los derechos civiles, las libertades civiles y los valores estadounidenses, incluyendo la adhesión a todas las leyes aplicables.
De acuerdo a la sección 3 de la EO, se establecen los siguientes principios para el uso de IA en el Gobierno Federal:
Un aspecto clave de esta orden ejecutiva es el énfasis en el intercambio de información por parte de las agencias federales sobre su uso de IA. Bajo esta EO, el Consejo de Directores de Información Federal debería haber identificado, proporcionado orientación sobre, y hecho públicas las normas, el formato y los mecanismos para los inventarios de las agencias de casos de uso de IA no clasificados y no sensibles. Esencialmente, se requiere que las agencias preparen un inventario y luego compartan sus inventarios con el público, considerando las leyes aplicables, incluida la protección de la privacidad y la información sensible de la aplicación de la ley, la seguridad nacional y otra información protegida.
Es importante señalar que, aunque el alcance de la EO con respecto a las agencias federales es amplio, tiene una exclusión significativa. A saber, el Departamento de Defensa y la Comunidad de Inteligencia, y por lo tanto los casos de uso de IA de inteligencia, están excluidos de su aplicación.
Un efecto claro de esta EO es que los principios están jugando un rol en las adquisiciones y aplicaciones de IA, incluyendo (i) cómo se adquieren las aplicaciones de IA, (ii) qué información se requerirá a los contratistas sobre sus aplicaciones de IA, y (iii) cómo las agencias prueban y auditan los contratos gubernamentales para aplicaciones de IA o contratos gubernamentales cuyo desempeño dependa del uso de aplicaciones de IA.
El primer punto de acción en la EO es el más significativo, ya que resalta la importancia de la seguridad nacional y requiere que las empresas desarrollen y utilicen responsablemente los sistemas de IA más poderosos o impactantes. Esto incluye proyectos de ciencias de la vida y programas de ciberseguridad. Será necesario notificar al gobierno y compartir los resultados de las pruebas de seguridad y otra información crítica con el gobierno de EE. UU. antes de publicitar estos nuevos materiales. Este es un paso prominente que intenta abordar la protección de la seguridad nacional y la salud pública. Además, la administración Biden desea desarrollar estándares, herramientas y pruebas para ayudar a garantizar que los sistemas de IA sean seguros, protegidos y confiables para el sector militar y de inteligencia, el sector privado y los gobiernos de todo el mundo.
Esta sección reconoce que uno de los riesgos del desarrollo de IA es la mayor deterioración de la privacidad de los individuos en torno a sus datos. ¿Cómo pueden entrenarse los sistemas de IA para preservar mejor la privacidad de los estadounidenses? El presidente insta al Congreso a proteger mejor la privacidad de los estadounidenses, incluyendo los riesgos que plantea la IA generativa, y a aprobar legislación bipartidista sobre privacidad de datos para proteger a todos los estadounidenses, con un enfoque especial en los niños. El Congreso también prioriza el apoyo de las agencias federales para acelerar el desarrollo y uso de investigaciones que preserven la privacidad.
El objetivo es abordar la discriminación y las violaciones de derechos civiles relacionadas con IA para proporcionar orientación clara a propietarios, programas de beneficios federales y contratistas federales. Además, se hace un llamado a abordar la discriminación algorítmica mediante el desarrollo de capacitación, proporcionando asistencia técnica y mejorando la coordinación entre el Departamento de Justicia y las oficinas federales de derechos civiles. Por último, se llama a garantizar la equidad en todo el sistema de justicia penal.
Esta parte de la EO habla de dos grandes categorías que aprovechan los beneficios de la IA: primero, la atención médica y, segundo, la transformación de la educación. Por un lado, la prioridad es mejorar el sistema de atención médica estadounidense y desarrollar medicamentos accesibles y que salvan vidas. Aún así, no se ha dado ningún programa o guía sobre cómo implementar eso. Sin embargo, desde un punto de vista más práctico, el Departamento de Salud y Servicios Humanos ahora tiene la tarea de desarrollar un programa de seguridad. El objetivo es abordar informes no saludables recibidos sobre, y actuar para remediar, daños o prácticas de atención médica inseguras que involucren IA.
Con esta sección, el Presidente aborda uno de los temas más candentes para la población estadounidense: proteger los derechos de los trabajadores de los daños causados por la IA. Esta cláusula ha suscitado la preocupación de que la IA está cambiando los trabajos y lugares de trabajo en Estados Unidos, prometiendo una mayor productividad. Además, los peligros de un aumento en la vigilancia laboral, sesgo y desplazamiento de empleo están volviéndose más frecuentes y prominentes. Las intenciones de la EO son claras: poner más poder en manos de los trabajadores (gestión organizacional), revisar su sistema de compensación y evaluar las solicitudes de empleo de manera justa. Además, la EO llama a que se mejore la investigación sobre las interrupciones laborales para explorar su escala y naturaleza.
Esta sección se aborda porque América actualmente se posiciona como uno de los líderes en innovación de IA. Como señaló la EO, más startups de IA recaudaron capital por primera vez en Estados Unidos el año pasado que en los próximos siete países combinados. Posteriormente, la EO se basa en el objetivo de liderar el camino de la innovación al catalizar la investigación sobre IA en EE. UU., promoviendo un ecosistema de IA justo, abierto y competitivo al “brindar a pequeños desarrolladores y emprendedores acceso a asistencia técnica y recursos, ayudar a pequeñas empresas a comercializar avances en IA y alentar a la Comisión Federal de Comercio a ejercer sus autoridad.”
7. Avanzando en el liderazgo estadounidense en el extranjero
A medida que el número de desafíos regulatorios para modelos de IA sigue aumentando globalmente, esta sección se centra en la colaboración transnacional para desarrollar y regular la IA. El presidente tiene como objetivo “expandir los compromisos bilaterales, multilaterales y de múltiples partes interesadas para colaborar en IA.” Para aprovechar los beneficios de la IA en la gestión de sus riesgos y garantizar la seguridad, el Departamento de Estado, en colaboración con el Departamento de Comercio, trabajará en el establecimiento de marcos internacionales con socios internacionales y organizaciones normativas.
La última sección de la EO puede compararse con pautas éticas sobre la aplicación de tecnología de IA y cómo el gobierno de EE. UU. tiene la intención de gobernar la IA. El punto de acción principal es mejorar los sistemas gubernamentales, que pueden plantear riesgos; emitir orientación sobre cómo las organizaciones pueden usar IA y ayudar a las agencias a adquirir productos de IA de manera más eficiente.
Aunque la Orden Ejecutiva sobre el Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial es todavía una iniciativa relativamente nueva, ya es diferente en naturaleza en comparación con las anteriores dos EO sobre IA. Esto se debe a que su naturaleza detallada debería permitir garantizar una implementación más completa y consistente. Históricamente, según el documento de trabajo de la Universidad de Stanford sobre los desafíos de implementación de los tres pilares de la estrategia de IA de América, las EO sobre IA no han sido implementadas con éxito. Según el documento de trabajo de Stanford, las razones que explican esta alta prevalencia de no implementación pueden sugerirse que provienen de “un vacío de liderazgo y una brecha de capacidad a nivel de agencia y nacional”, mientras que “[L]as agencias requieren liderazgo y recursos para avanzar de manera significativa los objetivos de estos mandatos legales”. Por lo tanto, queda por ver si la última EO sobrevivirá a la prueba del tiempo y se implementará con éxito para tener un impacto significativo.
La información presentada en este artículo es únicamente con fines informativos y no debe interpretarse como asesoramiento legal ni de ningún otro tipo.
Veriff solo usará la información para compartirte noticias del blog.
Puedes cancelar la suscripción en cualquier momento. Lee nuestro Declaración de privacidad.