Con muchos países en proceso de discutir o ya avanzando con legislación para regular el uso de la inteligencia artificial, hemos recopilado la información más importante que necesita saber sobre cómo las principales economías abordan la regulación de la IA
Las preocupaciones éticas de la IA han cobrado protagonismo a medida que los sistemas de IA se integran más en nuestras vidas diarias.
Según el Informe de AI Index 2023 de Stanford, los récords legislativos de 127 países muestran que el número de proyectos de ley que contienen el término "inteligencia artificial" aprobados en ley creció de solo 1 en 2016 a 37 en 2022. Un análisis de los registros parlamentarios sobre IA en 81 países también muestra que las menciones de IA en los procedimientos legislativos globales han aumentado casi 6.5 veces desde 2016.
Aumentan las preguntas éticas en torno a los sistemas de IA debido a la creciente implementación y la investigación sobre dichos sistemas debido a su mayor disponibilidad. Las cuestiones éticas que imponen altos riesgos en torno a la IA y que afectan negativamente la seguridad o los derechos fundamentales se han vuelto más evidentes para el público en general. Estos problemas también intersectan profundamente con áreas existentes de regulación, por ejemplo, en torno a la protección de datos personales y la privacidad, derechos de autor y protección contra la discriminación. Mientras tanto, las startups y las grandes empresas están en una carrera por desplegar y liberar modelos de IA más nuevos y potentes, por ejemplo, en torno a la IA generativa.
La creciente popularidad de la IA ha llevado a organizaciones intergubernamentales, nacionales y regionales a tomar medidas hacia la gobernanza de la IA a nivel estratégico y operativo. Los gobiernos están cada vez más motivados por abordar las crecientes preocupaciones sociales y éticas para crear confianza y maximizar los beneficios de la tecnología. Por lo tanto, la gobernanza de las tecnologías de IA se ha vuelto esencial para los gobiernos de todo el mundo
El aumento en la regulación de la IA también conlleva riesgos. Uno es el desafío de encontrar un equilibrio entre empoderar la confianza y asegurar la seguridad versus la sobre-regulación que puede llevar a una innovación estancada y un estancamiento económico. Esta es también la razón por la que algunos gobiernos, como el Reino Unido y los EE. UU., han sido bastante conservadores al tomar medidas audaces y agresivas hacia la regulación. El otro posible obstáculo para las empresas es un mosaico regulatorio que dificulta la entrada al mercado, lo que resulta en que las empresas se alejan de la expansión. Aquí es donde se necesita una alineación intergubernamental e internacional, ya que el motor suele ser la sinergia económica, por lo que organismos como el Consejo de Comercio y Tecnología EE. UU.-UE tienen el potencial de eliminar obstáculos para las empresas que buscan operar a través de las fronteras al crear una alineación a nivel político.
The US does not currently have a uniform and federal “AI law” as compared to what was adopted in the EU. Although the intent for AI regulation in the US is accelerating then not many initiatives have succeeded in the legislature.
También hay una mayor actividad a nivel estatal, con diferentes estados que pretenden regular diferentes aspectos de la IA. Por ejemplo:
El panorama de las leyes de IA a nivel estatal en los EE. UU. está cambiando rápidamente, por lo que es bueno seguir un rastreador de legislación disponible de una fuente autorizada (aquí hay un ejemplo) para mantenerse actualizado.
Aunque los EE. UU. carecen de un marco regulatorio integral para la IA, existe un fuerte sentimiento por parte de las autoridades estadounidenses de que los problemas relacionados con la IA, como el sesgo y la posible discriminación, pueden y deben hacerse cumplir bajo el marco legislativo actual. El 25 de abril de 2023, se publicó una "Declaración conjunta sobre los esfuerzos de cumplimiento contra la discriminación y el sesgo en sistemas automatizados" por la Comisión Federal de Comercio, la Oficina de Protección Financiera del Consumidor, la División de Derechos Civiles del Departamento de Justicia y la Comisión de Oportunidades de Empleo Igualitarias. Según la declaración, las autoridades prometen hacer cumplir enérgicamente sus poderes colectivos y monitorear el desarrollo y uso de sistemas automatizados.
Un par de iniciativas también expresan un fuerte sentimiento sobre la dirección de políticas pretendidas y crean ciertas obligaciones reguladoras. Por ejemplo, la Casa Blanca lanzó “Blueprint for an AI Bill of Rights” en octubre de 2022. Sin embargo, esta actualmente es una hoja de ruta no vinculante y aún proporciona valiosas orientaciones para entidades sobre qué esperar respecto a futuras leyes que afecten el uso de la IA en los EE. UU. Si bien no tiene fuerza de ley, esboza principios clave y recomendaciones que pueden moldear marcos legislativos y regulatorios. Comprender estas pautas puede ayudar a las organizaciones a prepararse para posibles obligaciones legales y alinear sus prácticas de IA con desarrollos anticipados.
En segundo lugar, en una nota más importante, el 30 de octubre de 2023, el presidente Biden lanzó su esperado Decreto Ejecutivo sobre el Desarrollo y Uso Seguro, Seguro y Confiable de la Inteligencia Artificial. Con el Decreto Ejecutivo, el presidente dirige acciones para proteger a los estadounidenses de los posibles riesgos de los sistemas de IA, para fortalecer las capacidades de la nación en inteligencia artificial (IA), y para promover el descubrimiento científico, la competitividad económica y la seguridad nacional.
Aunque el sector de IA del Reino Unido está en auge (según el estudio del sector de IA del Reino Unido), el país es relativamente ligero en regulación.
El Departamento de Ciencia, Innovación y Tecnología publicó un documento blanco el 29 de marzo de 2023 titulado "Regulación de la IA: un Enfoque Pro-Innovación", que establece las propuestas del Gobierno del Reino Unido para regular la inteligencia artificial (IA) de manera pro-innovadora. El documento reconoce los posibles beneficios de la IA, como mejorar la atención médica, mejorar los sistemas de transporte y aumentar la productividad económica, al tiempo que también reconoce los posibles riesgos y desafíos asociados con esta tecnología emergente.
Actualmente, el Reino Unido no cuenta con una regulación integral de IA, y a primera vista parece que no hay ninguna seria en el horizonte. Sin embargo, el gobierno del Reino Unido tiene la intención de otorgar más poderes a los reguladores existentes del sector específico para abordar los riesgos de la IA en base a los siguientes 5 principios: (i) seguridad, solidez y robustez; (ii) transparencia y explicabilidad adecuadas; (iii) equidad; (iv) responsabilidad y gobernanza; y (v) impugnabilidad y reparación.
El gobierno anterior del Reino Unido ha confirmado que evitará "legislación excesiva" para no obstaculizar la capacidad de responder a los avances tecnológicos, y en su lugar "tomará un enfoque adaptable para regular la IA", permitiendo a los reguladores utilizar su experiencia para modificar la implementación de los principios según el contexto específico de la IA en el respectivo sector del regulador. Es probable que los reguladores tengan la obligación de aplicar los principios si no pueden implementarlos y hacerlos cumplir voluntariamente. Se anima a los reguladores clave a emitir más orientaciones y recursos sobre cómo implementar los cinco principios y cómo se aplicarán estos principios dentro de sus sectores específicos.
Por ejemplo, en abril de 2024, la Autoridad de Conducta Financiera del Reino Unido (FCA), la autoridad supervisora de servicios financieros y empresas de fintech en el Reino Unido, publicó su actualización sobre IA. Al mirar hacia atrás y hacia adelante, la FCA enfatizó que están colaborando con empresas para entender el uso de la IA en el sector, pero también enfocados claramente en el aumento de riesgos en torno a la resiliencia operativa, la subcontratación y terceros críticos. Las empresas deben tener en cuenta esto cuando se les pregunte sobre su uso de IA.
Sin embargo, es probable que existan algunas brechas entre los diversos enfoques de los reguladores y, por lo tanto, es posible que se requiera legislación para asegurar una consideración coherente de los principios. También se espera que el gobierno del Reino Unido reevalúe su enfoque en caso de que el enfoque relativamente poco centralizado cause un aumento del "mosaico regulatorio".
Los primeros signos de tal reevaluación ya están aquí, ya que las conversaciones acerca de algún nivel de regulación de modelos de IA y proveedores de modelos se ha intensificado con el nuevo Gobierno tomando posesión. A medida que el Reino Unido busca fortalecer su relación con la UE, el potencial "Proyecto de Ley de IA del Reino Unido" puede ser un paso hacia tal alineación, especialmente considerando el hecho de que el Reino Unido, EE. UU. y UE han firmado el primer tratado internacional que aborda los riesgos de la inteligencia artificial.
En abril de 2021, la Comisión Europea propuso el primer marco integral para regular el uso de la IA. La prioridad de la Unión Europea es asegurar que los sistemas de IA utilizados y desarrollados en la Unión Europea sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.
Al igual que el Reglamento General de Protección de Datos (GDPR) de la UE, que regula el procesamiento de datos personales, la Ley de IA de la UE podría convertirse en un estándar global, determinando hasta qué punto la IA tiene un efecto positivo en lugar de negativo. La regulación de IA de la UE ya está causando revuelo a nivel internacional y puede leer más sobre ello en nuestro blog anterior.
Veriff solo usará la información para compartirte noticias del blog.
Puedes cancelar la suscripción en cualquier momento. Lee nuestro Declaración de privacidad.