La Agencia Española de Protección de Datos estudia el papel de la IA en la interpretación de solicitudes de oposición en mensajes comerciales.
El sistema automatizado no reconocía respuestas que no incluyeran la palabra “BAJA”, prevista como mecanismo de oposición.
La AEPD considera deseable, pero no obligatorio, que la IA comprenda múltiples expresiones humanas.
Se recuerda la futura obligación de informar cuando una persona interactúe con un sistema de IA, exigible desde agosto de 2026.
Análisis del caso: interacción con un chatbot comercial
La Agencia Española de Protección de Datos (AEPD) ha analizado una reclamación en la que una persona denunciaba el envío de mensajes comerciales no autorizados a través de una aplicación de mensajería instantánea. Los mensajes eran generados por un sistema de inteligencia artificial de una empresa con la que existía una relación contractual previa.
A pesar de que los mensajes incluían una instrucción clara para oponerse al tratamiento de datos —responder con la palabra “BAJA”—, el destinatario optó por enviar respuestas explicativas en lugar de seguir esa indicación.
Limitaciones del sistema de IA en la interpretación de derechos
El sistema automatizado no estaba diseñado para comprender solicitudes de baja expresadas de manera diferente a la prevista. La AEPD señala que, aunque sería deseable que estos sistemas interpretaran diversas formulaciones humanas, actualmente no es exigible que lo hagan. No se puede imponer a los sistemas de IA la obligación de entender cualquier expresión humana relativa al ejercicio de derechos de protección de datos.
Asimismo, la Agencia recuerda que la interacción con el chatbot no era el único canal para ejercitar dichos derechos, ya que existían alternativas con atención humana vía correo electrónico o web.
Futuro marco normativo y recomendaciones de la AEPD
La AEPD alude al artículo 50 del futuro Reglamento de Inteligencia Artificial, que será aplicable desde agosto de 2026. Dicho artículo establece que se deberá informar expresamente a las personas cuando estén interactuando con un sistema de IA. Aunque aún no es obligatorio, la Agencia recomienda anticiparse a esta exigencia.
En este caso concreto, dado el formato del lenguaje utilizado por el sistema y la reiteración de respuestas automáticas, resultaba evidente que la interacción era con un chatbot. Por tanto, se estima que el interesado podía haber ejercido su derecho mediante el canal previsto (enviando “BAJA”) o contactando con un agente humano.
Conclusión del criterio de la Agencia
La resolución de la AEPD subraya que, aunque los avances tecnológicos permiten automatizar comunicaciones comerciales, las empresas deben ofrecer mecanismos efectivos y comprensibles para que las personas puedan ejercer sus derechos. No obstante, no se puede exigir que los sistemas de IA comprendan toda forma de expresión natural. Lo relevante es que exista un procedimiento claro, gratuito y accesible para ejercer esos derechos, como ocurría en este caso.