- La IA genera contenido automatizado, utilizando datos personales en muchos casos.
- Existe un desfase entre el avance de la tecnología y la legislación que la regula.
- La futura ley europea de IA buscará proteger los derechos y libertades de los individuos.
- Transparencia y respeto a los derechos de autor serán claves en la nueva normativa.
Hasta hace relativamente poco tiempo, la inteligencia artificial (IA) solo se conocía a través del cine y la literatura, donde se presentaba como una tecnología que, generalmente, terminaba por escapar a nuestro control. Sin embargo, en el mundo real, la IA se anuncia como una herramienta revolucionaria que promete facilitar enormemente nuestras vidas. Pero, ¿realmente entendemos las implicaciones y consecuencias del uso de esta tecnología? ¿Qué riesgos puede traer consigo?
Un riesgo para los datos personales
Una de las principales preocupaciones al hablar de IA y protección de datos es que se trata de una tecnología relativamente joven y aún no completamente regulada. Esto significa que no se alcanza a vislumbrar todo su potencial ni sus riesgos.
Alejandro Flores, del equipo jurídico de Grupo Atico34, destaca que “la gran mayoría de inteligencias artificiales que se usan en la actualidad son inteligencias artificiales generativas, las cuales se encargan de crear contenido de forma automatizada en base a contenido ya existente”. Un ejemplo de esto es Meta, que utiliza IA en Facebook e Instagram para generar contenido a partir de lo que los usuarios ya han creado.
El problema radica en los datos que alimentan estos sistemas de IA, ya que pueden contener información incorrecta, sesgada o ser utilizados para recabar datos personales con fines de mercadotecnia u otros. Un caso reciente es el de Worldcoin, un proyecto que escaneaba el iris de las personas a cambio de criptomonedas, actividad que fue paralizada en España por la Agencia Española de Protección de Datos (AEPD).
Según Atico34, “el principal problema es que la tecnología está avanzando más rápido que la legislación, y por tanto no queda muy claro hasta dónde llegan las obligaciones de los operadores de IA ni los derechos de los usuarios”.
Recomendaciones ante el limbo legal
Mientras se define un marco legal más claro, es recomendable aplicar la Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales (LOPDGDD), que es la transposición española del Reglamento General de Protección de Datos europeo (RGPD). Esta legislación vigente obliga al responsable del tratamiento (la persona física o jurídica que utiliza la IA) a informar sobre su identidad, actividades de tratamiento, finalidad del tratamiento, cesión de datos a terceros y plazos de conservación de datos.
Además, debe informar sobre los derechos del usuario (acceso, rectificación, supresión, limitación del tratamiento, portabilidad u oposición) y obtener siempre el consentimiento expreso e inequívoco del individuo para el uso de sus datos.
La ley que se avecina
La próxima Ley europea de Inteligencia Artificial busca resolver preguntas clave sobre la recopilación y uso de datos personales por parte de la IA, así como la responsabilidad sobre el contenido generado por estas tecnologías. La nueva normativa, que está en las últimas fases de tramitación, se centrará en:
- Transparencia de los contenidos creados mediante IA y defensa de los derechos de autor.
- Prohibición de sistemas de categorización biométrica.
- Prohibición del uso de la IA para engañar o manipular a los individuos o explotar sus vulnerabilidades.
- Protección frente a las ultrafalsificaciones generadas por IA.
Aunque es pronto para conocer todos los detalles y límites de la nueva ley, es evidente que esta normativa buscará equilibrar el avance tecnológico con la protección de los derechos y libertades de los individuos. La IA será, sin duda, una parte activa de nuestras vidas, y su regulación es crucial para garantizar su uso ético y seguro.