Expertos en Inteligencia Artificial han recomendado en la Universidad Internacional de La
Rioja (UNIR) una regulación ética y responsable sobre los avances tecnológicos.
Instituciones y empresas desarrolladoras, de Estados Unidos y Europa, trabajan conjuntamente
un “código de conducta” para un correcto uso de la IA, mientras se espera que a comienzos de
2024 entren en vigor las primeras leyes.
Juan Ignacio Rouyet, profesor del Máster Universitario en Gemelos Digitales de la
Universidad Internacional de La Rioja (UNIR), aseguró que los usos de la IA han generado una
creciente preocupación social y política por lograr que no sobrepase unos límites éticos. “El
reconocimiento facial, la vigilancia continua, los sistemas de chat, el arte en campos como la
fotografía y la literatura, así como la predicción del comportamiento social han planteado
cuestiones éticas y morales que deben abordarse de manera adecuada”.
Rouyet, quien además es director del Think Tank por una IA ética “We the Humans”, habló en
la openclass “Construir un futuro responsable de la IA”, organizada por UNIR, sobre cómo la
Inteligencia Artificial ha experimentado un crecimiento exponencial, y generado inquietud y
dudas sobre su uso acorde con nuestros valores y necesidades.
“La regulación de la IA es posible y necesaria en nuestra sociedad. Lograrlo y que respete la
ética es un desafío que requiere la colaboración de gobiernos, empresas, expertos y la sociedad
en su conjunto, pero es un paso crucial para construir un futuro tecnológico responsable y
equitativo”, según el experto.
Punto de partida: soft regulation o autorregulación normativa
Por el momento, existen unos estándares y códigos de conducta para el uso de la IA mientras
las grandes potencias trabajan para crear una normativa regulatoria.
En este sentido, el vicepresidente del Consejo General de Colegios Oficiales de Ingeniería en
Informática (CCII), Juan Pablo Peñarrubia, comentó en UNIR que “en cualquier actividad
económica o social tendemos a una regulación legal normativa de carácter esencial obligatoria,
y así debe ser también en el caso de la IA”.
Entre julio y noviembre habrá más de 127 reuniones en la Comisión Europea para trabajar
sobre la IA y se estima que para el 2024 se apruebe la primera ley europea al respecto.
Según Peñarrubia, “tanto Estados Unidos como Europa se están preparando para crear leyes
que ayuden a los avances económicos, al mismo tiempo que analiza los riesgos de la IA y
protege los derechos fundamentales para garantizar la seguridad y la transparencia en el uso
de estas tecnologías”.
Actualmente hay dos vertientes en la IA que se refieren a la autorregulación normativa:
normalización o estandarización y la ética a través de comités, códigos éticos o deontológicos.
“Estos dos elementos son necesarios para atender el contexto de la IA a nivel mundial, en el
que actualmente hay 3 aproximaciones: la de Estados Unidos, Europa y China”, destacó
Peñarrubia.
En Estados Unidos, la National Artificial Intelligence Initiative trabaja coordinando las
actividades de investigación, desarrollo y demostración de IA entre las agencias civiles, el
Departamento de Defensa y la comunidad de inteligencia.
En el encuentro, Peñarrubia explicó que “la visión de USA es una aproximación de economía y
liderazgo con una esencia similar a la de la irrupción de la tecnología informática, con un
enfoque económico y liberal, pero con un ingrediente nuevo, la regulación de los riesgos”. Esto
viene de las carencias regulatorias de la informática algorítmica y sus consecuencias.
El ámbito europeo tiene una diferencia principal en su visión de la IA respecto a Estados
Unidos, la ética a nivel regulatorio. Así lo refleja el documento “Directrices Éticas para una IA
confiable” desarrollado por la Comisión Europea.
“La fiabilidad de la IA en Europa se centra en tres directrices: debe ser lícita, es decir, que
cumpla con la normativa vigente de las leyes y reglamentos; ética, que garantice el
cumplimiento de los principios y valores; y robusta, que no cause daños involuntarios y que
tome en cuenta sus consecuencias desde el punto de vista técnico y social”, añadió el profesor
del máster de UNIR en su explicación.
La aproximación china es totalmente distinta. Según explicó el vicepresidente del Consejo
General de Colegios Oficiales de Ingeniería en Informática, “en 2022 China y Rusia firmaron un
acuerdo por una asociación sin límites denominada la IA y el control de internet. Una sociedad
con una gran diferencia en el entendimiento de la sociedad y la política al respecto, regulando
sus modelos de IA según los valores socialistas, como lo indicaron a través de la prensa en abril
de este año”.
Complementariedad entre USA y Europa
“Es normal que exista una inquietud de algo que es una amenaza tan importante”, reflexionó
Peñarrubia. A finales de mayo, la UE y Estados Unidos se reunieron para poner de manifiesto la
importancia de la colaboración y complementariedad de la regulación en el ámbito de la IA:
confianza, uso ético y complementariedad de normalización, aunque sea una regulación suave
por el momento.
Además, Peñarrubia aclaró que “es importante la definición de IA, porque puede tener
regulación y responsabilidades distintas. Hay que concretarlo a nivel jurídico y que se pueda
extender a cualquier dispositivo. Si no se define, puede quedar un vacío legal en su aplicación
no solo a la informática tradicional, sino algorítmica”.
La regulación de la IA no es como la informática en general, ya que éstas se encuentran
cimentadas en una falla técnica y jurídica de la época de la eclosión de la informática clásica, lo
que pone en manifiesto las debilidades relacionadas con la ciberseguridad hoy en día.
En este sentido, gracias a la complementariedad y colaboración entre Europa y Estados Unidos,
la UE incorporó el término machine based en su definición de IA. Inicialmente Europa hablaba
de software, mientras Estados Unidos se refería a la IA como un sistema basado en máquinas,
lo que constituye un aspecto más amplio jurídicamente.
“Es necesario pasar de un enfoque más técnico a un enfoque más amplio para concretar a nivel
jurídico y que se pueda extender a cualquier dispositivo de IA”, subrayó el experto.
En el contexto de uso y servicio de actividades de la IA y de la ingeniería informática la
regulación legal, la normalización y la ética no son estancos, son vasos comunicantes de
múltiples dimensiones y es importante entender la interrelación de la regulación y ética en el
ámbito de la IA e ingeniería informativa.
Regulación Europea
La UE regula sistemas de alto riesgo. En el caso de la IA, se regularán los usos prohibidos y
luego habrá algunas aplicaciones que se legislarán según su uso o aplicación y requisitos.
Actualmente se han incorporado en sistemas de alto riesgo sistemas que inciden en la
democracia o estado de derecho, esto obedece a la preocupación de la UE por la social
concerns y el ethics side.
En este sentido, la UE no tiene competencias exhaustivas. Los estados miembros tendrán
competencias exclusivas y ámbitos de acción. Las actividades profesionales y las autoridades
nacionales de IA tendrán que supervisar el tema de la sanción y supervisión.
Actualmente, los principios éticos y derechos fundamentales son la base de la regulación que
está en macha a espera de que sea aprobada. La Comisión Europea habla de los requisitos
claves de la IA en 7 dimensiones: responsabilidad, supervisión humana, solidez, gestión de
datos, transparencia, justicia, bienestar social e impacto en el medio ambiente.
De la robótica a los algoritmos responsables
“En 2014 se da un salto significativo en las leyes de la robótica y surge el termino de ‘algoritmo
responsable’ que plantea una serie de principios éticos que siguen vigentes y se trabajan con
acciones concretas: responsabilidad, explicación -de forma no técnica- sobre la razón de
decisión de cualquier sistema; precisión -ligado a la seguridad, sistema robusto-; auditable por
una entidad externa y justo, es decir, que no fomente la discriminación”, concluyó Rouyet en su
intervención.
Fuente: UNIR