A las pocas semanas del lanzamiento de ChatGPT, nos encontramos con la noticia de su prohibición en Italia debido a preocupaciones en torno a su gestión de los datos privados de los usuarios. En concreto, el gobierno italiano consideraba que ChatGPT no estaba haciendo un uso legítimo de la información compartida por sus usuarios, no solo sus datos de registro (el propio correo electrónico o el nombre propio) sino, sobre todo, sus chats con la IA. 

Al tratarse de una inteligencia artificial en desarrollo, ChatGPT utiliza todos los textos que escribes en su chat para perfeccionar su algoritmo y ofrecer una conversación más fluida en lo sucesivo. Necesita entonces almacenar todo lo que le dices para poder procesarlo en su red neuronal e incorporarlo a su ‘cerebro’. Y aquí es donde se encuentra la preocupación de los especialistas en ciberseguridad italianos. 

Tras varias conversaciones entre el gobierno italiano y OpenAI, se terminó levantando el veto a ChatGPT en Italia, con lo que esta poderosa inteligencia artificial lingüística vuelve a estar a disposición de todos los italianos que quieran usarla de forma privada o profesional. Pero la polémica en torno al uso correcto o incorrecto de los datos personales de los usuarios de ChatGPT está lejos de haberse cerrado. 

En Brasil, también existe la preocupación de que ChatGPT esté infringiendo las leyes de Protección de Datos locales en su configuración actual. El pasado mes de mayo, Sam Altman visitó Río de Janeiro para tratar este y otros temas, así como el futuro de la inteligencia artificial. Sin embargo, no parece que ChatGPT esté dando los pasos adecuados para proteger los datos de sus usuarios o hacer un uso correcto de los mismos. 

El debate tiene más implicaciones de lo que podría parecer en primera instancia. Las dudas sobre el tratamiento de los datos personales en ChatGPT se están multiplicando en un momento en que está sobre la mesa la problemática de la regulación global de la IA, una tecnología que tiene el potencial de superar con creces el entendimiento humano y escapar por completo de nuestro control por primera vez en la historia. 

La pregunta entonces es evidente. ¿Cómo podemos tener confianza en que las futuras regulaciones a la IA –que ni siquiera han comenzado a esbozar– tendrán éxito en contener el desarrollo de una tecnología tan potencialmente destructiva, si ni siquiera somos capaces de hacer que cumpla con leyes vigentes desde hace años como las leyes de Protección de Datos? El panorama, en este sentido, no podría ser más desolador. 

Tenemos entonces dos grandes problemas sobre la mesa. Uno, el más inmediato, pasa por garantizar que todas las conversaciones que mantenemos con ChatGPT se mantengan en el ámbito privado, y que no trascienden la seguridad de nuestro ordenador o de la propia plataforma de OpenAI. Se trata de un problema que podemos abordar desde el cumplimiento de la legalidad por parte de OpenAI, y desde nuestras propias medidas de seguridad. 

Al utilizar ChatGPT, por ejemplo, te conviene conectarse a su plataforma desde una VPN en España. Esto impedirá que la información que compartas con ChatGPT se filtre a través de vulnerabilidades en tu propio ordenador, tu router, o cualquiera de los servidores intermediarios o finales que participen en esa transmisión de datos. Esta medida de seguridad es esencial para asegurarte de que estas conversaciones privadas no caigan en malas manos.

Recuerda además que ChatGPT pone a tu disposición un sistema de verificación en dos pasos y que, por supuesto, la contraseña que utilizas para proteger tu cuenta debe ser una clave robusta que no estés utilizando en ninguna otra plataforma. Considerando la gran cantidad de dudas personales o consultas profesionales que le trasladamos a ChatGPT, la filtración de estos datos podría tener efectos devastadores tanto en el ámbito personal como en el laboral. 

En cuanto al segundo problema, la regulación de la IA para impedir que escape a nuestro control, la situación es bastante más compleja y no tiene visos de solución a corto o medio plazo. Tristemente, eventos tan mediáticos como la comparecencia de Sam Altman en el Congreso de los Estados Unidos solo han servido para debatir la conveniencia o no de regular la IA. No han trascendido propuestas concretas de cómo se implementaría esa regulación. 

Mientras que en las instancias políticas la conversación gira alrededor de si habría que regular la IA o si no hace falta hacerlo, la inteligencia artificial está evolucionando a una velocidad sin precedentes y amenaza con causar serias disrupciones en nuestra sociedad. Ya está ocasionando la pérdida de cientos de miles de puestos de trabajo en sectores altamente especializados, e incluso podría llegar a constituirse como una amenaza para la civilización. 

Puede parecer una afirmación salida de una novela de ciencia ficción, pero es aterradoramente cierta. Cientos de especialistas en el ámbito de la tecnología –incluyendo a Bill Gates, Elon Musk y el propio Sam Altman– han realizado incontables declaraciones e incluso firmado un documento conjunto solicitando la paralización inmediata de todos los proyectos de desarrollo de inteligencia artificial para poder adoptar medidas que permitan su control. 

Estas medidas, sin embargo, no se están elaborando, y mucho menos implementando. La IA continúa su avance imparable, mucho más que antes si cabe. Grandes empresas como Google han despedido a su equipo ético en su totalidad para poder acelerar el desarrollo de su IA ante el auge de OpenAI. Las consecuencias de todo esto pueden ser nefastas, y lo peor es que ni siquiera tenemos el simple esbozo de un plan de respuesta coherente.

Dejar una respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.