La voluntad política internacional de «hacer algo» con respecto a la IA (Inteligencia Artificial) llegó a un punto crítico en este mes de noviembre, con las iniciativas del Proceso de Hiroshima del G7 y una nueva orden ejecutiva presidencial de EE. UU. sobre esta materia que se anunciaron unos días antes de la Cumbre de Seguridad de la IA del Reino Unido. Sin embargo, las iniciativas internacionales son de carácter voluntario, sin mecanismos de aplicación ni sanciones.

datos personalesLa Ley de IA de la Unión Europea sigue siendo uno de los principales ejemplos en todo el mundo de nueva legislación vinculante específica para la IA, y es otro ejemplo de cómo la UE trata de establecer el estándar de oro regulatorio. Por lo tanto, parece poco probable que no se supere el actual estancamiento de las negociaciones. Sin embargo, los comentaristas han expresado su preocupación de que la intensa presión del tiempo pueda llevar a compromisos significativos (algunos podrían decir que un “regateo”) para salvar la legislación en su conjunto. Los compromisos de última hora sobre esta nueva ley de inteligencia artificial europea podrían reducir la seguridad jurídica y la claridad, y los implicados en las negociaciones han expresado su temor de que esto pueda dar lugar a un marco regulador que no esté tan bien diseñado como podría haber estado con menos presión de tiempo.

Por supuesto, la IA no está desregulada mientras esperamos la Ley de IA. Las actividades de aplicación (incluidas las sanciones) en relación con cuestiones de IA seguirán siendo llevadas a cabo por los reguladores, incluidas las autoridades de protección de datos de la UE (como ha ocurrido en Italia) y, cada vez más, también por las autoridades de protección de los consumidores.

Evolución de la UE

Hora de la verdad de la Ley de IA

Las tres instituciones de la UE responsables de la nueva legislación (la Comisión, el Consejo de la UE y el Parlamento Europeo) se encuentran en las fases finales de acuerdo sobre los términos de la Ley de IA. Sin embargo, han surgido problemas importantes en relación con la regulación de los «modelos de fundación». Los modelos básicos son una forma avanzada de IA que ha surgido desde el borrador original de la Ley de IA de abril de 2021. Por lo general, se entrenan en grandes conjuntos de datos no estructurados y sin etiquetar para realizar una tarea con muchas aplicaciones potenciales. Por lo tanto, pueden utilizarse como bloque de construcción para sistemas de IA con muchos usos finales diferentes.

Según los informes, Francia, Alemania e Italia están en contra de la regulación de los modelos de fundación debido a las preocupaciones relacionadas con la soberanía tecnológica de la UE sobre la asfixia de la innovación y la creación de barreras para el desarrollo de la capacidad de la UE en este campo liderado por empresas estadounidenses y chinas. El Parlamento Europeo, por su parte, considera esencial cierta regulación de los modelos de fundación. La Comisión ha propuesto un compromiso centrado en la transparencia, la documentación técnica y la información sobre los datos de formación en relación con los modelos de fundación. El texto de compromiso pretende abordar la preocupación del Parlamento de que, de otro modo, los desarrolladores que construyan una aplicación de IA de alto riesgo que incorpore un modelo de base tendrían dificultades para cumplir sus propias obligaciones de la Ley de IA debido a la falta de transparencia en torno al modelo de base subyacente. Mientras tanto, continúan los debates entre los Estados miembros.

Otros ámbitos pendientes que aún se están negociando son la lista definitiva de IA prohibida, la lista definitiva de IA de alto riesgo y la gobernanza general de la Ley de IA para garantizar la coherencia y la coherencia de la interpretación y el cumplimiento en todos los Estados miembros.

Las elecciones parlamentarias del próximo mes de junio están ejerciendo una presión de tiempo significativa sobre este proceso. De hecho, sólo quedan unas pocas semanas para salir del estancamiento actual a fin de que las diversas formalidades legislativas y los detalles de la redacción final puedan completarse antes de que finalice la actual legislatura.

Iniciativas internacionales sobre Inteligencia artificial

El Proceso de Hiroshima del G7

El 30 de octubre, como parte del Proceso de Hiroshima sobre la IA, el Grupo de los Siete (G7) (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido, así como la Unión Europea) finalizó sus 11 Principios Rectores Internacionales para regir la IA. También se publicó un código de conducta voluntario. Se afirma que ambos son «documentos vivos» que se adaptarán con el tiempo.

Los 11 Principios Rectores acordados sustentan el código y, a su vez, se basan en los principios de IA de la Organización para la Cooperación y el Desarrollo Económicos. En resumen, abordan aspectos de la gestión de riesgos, la transparencia, la buena gobernanza, las prioridades de investigación y la normalización. El código de conducta agrega detalle y granularidad a cada uno de los principios sobre lo que se espera de los desarrolladores. El G7 espera que las organizaciones que desarrollan sistemas avanzados de IA se adhieran a él.

El código de conducta es el resultado de lo que originalmente eran conversaciones bilaterales entre la UE y los EE.UU. a través del Consejo de Comercio y Tecnología UE-EE.UU. sobre un código de conducta voluntario. La Comisión Europea ha acogido con satisfacción el Código.

La Cumbre de Seguridad de la IA del Reino Unido

Los días 1 y 2 de noviembre se celebró la Cumbre Internacional de Seguridad de la IA del Gobierno del Reino Unido. Su enfoque futurista era la seguridad de los modelos de «IA de frontera», siendo «modelos de IA de propósito general altamente capaces que pueden realizar una amplia variedad de tareas e igualar o superar las capacidades presentes en los modelos más avanzados de la actualidad».

Entre los resultados más destacados cabe destacar los siguientes:

Discusión de las pruebas de seguridad por parte de los líderes de ambos países y los principales desarrolladores de IA. El gobierno del Reino Unido ha publicado un documento sobre los procesos emergentes para la seguridad de la IA en las fronteras y muchos de los participantes han publicado sus políticas de seguridad de la IA.

Encargar un informe sobre el estado de la ciencia sobre las capacidades y los riesgos de la IA de frontera, que se publicará antes de la próxima Cumbre sobre Seguridad de la IA (que se celebrará en Corea en la primavera de 2024).

Anuncio de la Declaración de Bletchley, firmada por los 29 países asistentes (incluida la UE), en la que se confirma su compromiso de construir una comprensión científica y basada en pruebas compartidas de los riesgos de seguridad de la IA, desarrollar políticas basadas en el riesgo para abordar esas preocupaciones, junto con métricas de evaluación y pruebas de seguridad, desarrollar la capacidad del sector público y la investigación científica, y fomentar la colaboración y la transparencia de los actores privados.

Lanzamiento del Instituto de Seguridad de la IA (surgido del Grupo de Trabajo de IA de la Frontera del Reino Unido), que se centrará en las capacidades de IA actuales más avanzadas para garantizar que los futuros desarrollos en IA no pillen al mundo desprevenido. Por otra parte, Estados Unidos anunció su propio Instituto de Seguridad de la IA de Estados Unidos.

Sobre el autor

Rafael García del Poyo, socio de Osborne Clarke España socio de Osborne Clarke España, y otros socios internacionales del bufete

Dejar una respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.