Explorar el ámbito de la legislación sobre IA
La Inteligencia Artificial (IA) está transformando rápidamente las industrias y las sociedades, provocando avances y retos sin precedentes. A medida que los sistemas de IA se integran cada vez más en nuestra forma de hacer negocios y vivir la vida cotidiana, la necesidad de una legislación sólida que regule su desarrollo y uso se ha vuelto cada vez más crítica.
La mayoría de los marcos reguladores pretenden equilibrar la necesidad de innovación con la protección de los derechos fundamentales y la seguridad pública. Este artículo explora el estado actual de la legislación sobre IA, sus implicaciones y el camino a seguir.
El auge de la legislación sobre IA
La Unión Europea (UE) ha introducido recientemente la Ley de IA de la UE (EU AI Act). Este amplio marco pretende garantizar que los sistemas de IA sean seguros, transparentes y respeten los derechos fundamentales. Al estar más a la vanguardia de la tecnología de IA, países como Estados Unidos y China, por ejemplo, se han adelantado con marcos legislativos para abordar los retos únicos que plantea la IA. Independientemente de la velocidad, es necesario regular el panorama tecnológico de la IA tanto para promover la innovación como para generar confianza.
Un camino de confianza
La aplicación de la legislación sobre IA plantea varios retos. El rápido ritmo de desarrollo de la IA puede superar la capacidad de los marcos reguladores para seguirle el ritmo. Además, equilibrar la innovación con la regulación requiere una cuidadosa consideración para evitar ahogar el progreso tecnológico. Sin embargo, la legislación sobre IA también ofrece importantes oportunidades. Al establecer directrices y normas claras, la legislación puede fomentar la innovación, aumentar la confianza pública y garantizar que los sistemas de IA se desarrollen y utilicen de forma responsable. Además, al dar prioridad a la seguridad, la transparencia y las consideraciones éticas, podemos aprovechar todo el potencial de la IA y, al mismo tiempo, salvaguardar los intereses de las personas y la sociedad.
Complemento de las normas internacionales
Los esfuerzos legislativos se complementan con normas internacionales como la ISO/IEC 42001. Esta norma certificable establece requisitos para implantar un sistema de gestión de la IA y trasciende las fronteras geográficas. Aunque no es una legislación propiamente dicha, se espera que la ISO/IEC 42001 desempeñe un papel importante en la promoción de una IA digna de confianza estableciendo las mejores prácticas para la gobernanza de la IA. Diseñada para garantizar el desarrollo, la implantación y el uso seguros, fiables y éticos de la IA, se menciona en las legislaciones como un medio valioso para garantizar la implantación de procesos de gobernanza adecuados.
Componentes clave de la legislación sobre IA
La legislación sobre IA suele abarcar varios componentes clave:
- Seguridad y fiabilidad: Garantizar que los sistemas de IA funcionan de forma segura y fiable es primordial. La legislación suele incluir requisitos de gestión de riesgos, pruebas y validación para evitar daños a las personas y a la sociedad.
- Transparencia y responsabilidad: La transparencia en los procesos de toma de decisiones sobre IA es crucial para generar confianza. La legislación obliga a los desarrolladores de IA a ofrecer explicaciones claras sobre el funcionamiento de sus sistemas y a establecer mecanismos de rendición de cuentas.
- Consideraciones éticas: Los principios éticos, como la equidad, la no discriminación y el respeto a la privacidad, son parte integrante de la legislación sobre IA. Estos principios guían el desarrollo y despliegue de los sistemas de IA para garantizar que se ajustan a los valores de la sociedad.
- Cumplimiento y aplicación: Para garantizar el cumplimiento de la legislación en materia de IA, es esencial contar con mecanismos de aplicación eficaces. Los organismos reguladores se encargan de supervisar los sistemas de IA, realizar auditorías e imponer sanciones en caso de incumplimiento.
Europa: La Ley de IA de la UE
La Unión Europea (UE) ha dado un paso importante en la regulación de la inteligencia artificial (IA). La Ley de IA de la UE pretende garantizar que los sistemas sean seguros, transparentes y respeten los derechos fundamentales, al tiempo que fomentan la innovación. Publicada el 12 de julio, entró en vigor el 1 de agosto de 2024. Sus disposiciones se aplicarán gradualmente, con obligaciones sobre prácticas prohibidas a partir del 2 de febrero de 2025 y requisitos para los sistemas de IA de alto riesgo a partir del 2 de agosto de 2026.
La Ley de IA de la UE clasifica los sistemas de IA en función de sus niveles de riesgo:
-
Riesgos inaceptables, por ejemplo, la puntuación social, son prohibidos.
-
Alto riesgo, como la gestión de empleo o los dispositivos médicos, se permiten sujetos a requisitos y evaluaciones de conformidad.
-
Riesgo de "transparencia", por ejemplo, chatbots o ultrafalsificaciones, se permite sujeto a requisitos de transparencia o de información.
-
Riesgo mínimo o nulo, se permite sin restricciones.
Los sistemas de IA de riesgo inaceptable, como los que manipulan el comportamiento humano o explotan vulnerabilidades, están prohibidos. Los sistemas de IA de alto riesgo, que incluyen aplicaciones en infraestructuras críticas, educación y empleo, deben someterse a rigurosas evaluaciones de conformidad antes de su comercialización.
La Ley de IA de la UE también establece requisitos de transparencia y responsabilidad. Los desarrolladores de IA deben proporcionar información clara sobre el funcionamiento de sus sistemas y garantizar que puedan ser auditados. Esto incluye el mantenimiento de documentación y registros detallados para facilitar la supervisión y el cumplimiento. También se aplica a las empresas que operan o venden productos de IA en la UE. Las empresas exportadoras deben garantizar que sus sistemas de IA cumplen las normas especificadas y someterse a las evaluaciones necesarias.
Legislación sobre IA en Estados Unidos
Aunque con un planteamiento ligeramente distinto al de la UE, Estados Unidos reconoció pronto la necesidad de una legislación exhaustiva que regulase su desarrollo y uso. Esto ha dado lugar a varios actos legislativos a nivel federal y estatal; en 2023 se presentaron más de 40 proyectos de ley estatales. El panorama legislativo en Estados Unidos es bastante complejo, pero refleja en gran medida la creciente necesidad de equilibrar la innovación con salvaguardias para proteger a las personas y a la sociedad de los riesgos de la IA.
Hay algunos textos legislativos y medidas reguladoras clave que configuran el panorama de la IA en Estados Unidos. El Blueprint for an AI Bill of Rights, publicado en octubre de 2022, esboza principios para proteger a las personas de los daños potenciales de la IA. Se centra en derechos como la privacidad, la protección frente a la discriminación algorítmica y la garantía de transparencia. La amplia Executive Order on AI firmada por el Presidente Joe Biden en 2023 hace hincapié en la necesidad de una IA segura y fiable. También obliga a las agencias federales a adoptar medidas que garanticen que los sistemas de IA se desarrollan y utilizan de forma responsable. Existen algunas leyes que pretenden promover la innovación de forma segura, fiable, ética y transparente, como la National AI Initiative Act de 2020 y la Future of AI Innovation Act. En mayo de 2024 se firmó la innovadora Colorado AI ACT, la primera de este tipo en EE.UU., que comprende una ley de gobernanza de la IA intersectorial que abarca el sector público. Se están elaborando varios proyectos de ley en el Congreso, como el recientemente propuesto SB 1047 California AI Safety bill, cuyo objetivo es regular aún más el modelo de IA más potente.
Legislación china sobre IA
China no ha publicado hasta ahora una ley exhaustiva sobre IA, pero sí reglamentos sobre aplicaciones de IA. Sin embargo, a diferencia de la Unión Europea, donde la Ley de IA de la UE actúa como marco regulador general de todos los sistemas de IA, China está adoptando un enfoque vertical para regular determinados servicios de IA.
Con el ambicioso objetivo de convertirse en el líder mundial en desarrollo y aplicaciones de IA, el gobierno de Pekín publicó en 2017 el "Plan de Desarrollo de la IA de Nueva Generación", que es el primer plan sistémico y estratégico en el ámbito de la IA. Este plan estimuló una explosión de la actividad industrial y del apoyo político al desarrollo de la IA.
Cinco categorías principales componen el panorama chino de gobernanza de la IA:
-
Políticas y estrategias de gobernanza. Pekín ha publicado una serie de principios de gobernanza, planes, orientaciones u opiniones a nivel nacional sobre las tecnologías de IA. Estos proporcionan una base para la legislación sobre IA. Por ejemplo, el Consejo de Estado publicó "Opiniones sobre el fortalecimiento de la gobernanza ética en ciencia y tecnología", que expresa las ideas de Pekín sobre los principios éticos de las tecnologías de IA.
-
Leyes. Algunas de las leyes existentes abordan determinados aspectos del desarrollo, suministro, despliegue y uso de sistemas de IA, que tienen un impacto significativo en la legislación sobre IA. Entre ellas, destacan tres leyes, a saber, la "Ley de Protección de Datos Personales", la "Ley de Seguridad de Datos" y la "Ley de Ciberseguridad".
-
Normativa administrativa. Algunas normativas administrativas establecen requisitos concretos para los algoritmos de IA cuando se utilizan en servicios de información en Internet, como "contenidos de síntesis profunda", "sistema de recomendación" y "sistema de IA generativa".
-
Normativa municipal. Algunas ciudades de China (Shanghái y Shenzhen) también han publicado normativas municipales sobre IA de contenido agnóstico, cuyo objetivo es promover el desarrollo de la industria de la IA. Ambas normativas exigen un control eficaz de los riesgos introducidos por la IA, con un examen más exhaustivo de los productos y servicios de IA de alto riesgo que de los que presentan menos riesgo.
-
Normas nacionales. Para apoyar la regulación del sistema de IA, el Instituto de Normalización Electrónica de China lidera el desarrollo de una serie de normas recomendadas que cubren múltiples aspectos de las tecnologías de IA.
Impacto en las empresas
El panorama legislativo en todo el mundo es bastante amplio, lo que añade un grado de complejidad que deben gestionar las empresas, tanto si operan en una geografía específica como si lo hacen a nivel interno. Lo común a la mayoría es que los organismos gubernamentales quieren abordar tanto las oportunidades como los retos que plantean las tecnologías de IA.
En su núcleo está la intención de promover la innovación y el desarrollo y uso responsables de la IA, garantizando que beneficia a la sociedad al tiempo que la protege de los riesgos potenciales. A medida que la tecnología de la IA siga evolucionando a gran velocidad, los organismos reguladores tratarán de seguir el ritmo y las empresas también deberán cumplirlo.
Para gestionar y garantizar una gobernanza sólida, las empresas se beneficiarían de la implantación de un sistema de gestión de la inteligencia artificial (AIMS) que cumpla la norma ISO/IEC 42001, junto con sistemas de gestión orientados a la seguridad de la información (ISO/IEC 27001) o la privacidad (ISO/IEC 27701). Proporciona un enfoque estructurado de la gestión de riesgos, incluido el cumplimiento de la normativa, y establece prácticas de mejora continua. También permite la certificación por una tercera parte independiente como DNV, que puede ayudar a garantizar sistemas de IA seguros, fiables y éticos, apoyar el cumplimiento de la normativa y salvar las brechas de confianza.