La AEPD advierte sobre los riesgos del uso de imágenes de terceros en sistemas de inteligencia artificial
La Agencia alerta de la pérdida de control sobre la imagen personal y la posible afectación a derechos como el honor, la intimidad y la propia imagen. Se identifican riesgos visibles como la sexualización sintética y otros menos evidentes, como la retención no consentida de datos biométricos. El documento subraya la gravedad de los impactos cuando se ven afectados menores o personas vulnerables. En caso de indicios de delito, la actuación corresponde a las fuerzas de seguridad, la Fiscalía o los tribunales. La Agencia Española de Protección de Datos (AEPD) ha publicado una nota informativa en la que analiza en profundidad los riesgos asociados al uso de imágenes de terceros en sistemas de inteligencia artificial (IA). El documento, divulgado el 13 de enero de 2026, pone el foco tanto en los impactos más evidentes como en aquellos menos visibles, pero igualmente relevantes, que pueden derivarse del uso de tecnologías de IA con contenidos visuales personales. Riesgos visibles: contenidos sintéticos y atribuciones falsas En primer lugar, la Agencia señala los riesgos visibles, aquellos derivados de la creación y difusión de imágenes generadas mediante IA. Se destacan situaciones especialmente graves como: La sexualización o creación de contenido íntimo sintético. La atribución de hechos o conductas no reales, con consecuencias reputacionales. La descontextualización de imágenes reales para generar significados falsos. El uso de imágenes que involucran a menores de edad o a personas en situación de especial vulnerabilidad. Estas prácticas, subraya la AEPD, suponen una pérdida efectiva de control sobre la imagen de las personas y pueden tener un impacto profundo en su vida personal, social y profesional. Riesgos invisibles: pérdida de control y reutilización sin consentimiento Más allá de los efectos tangibles, el documento pone énfasis en los riesgos menos visibles, aquellos que pueden producirse incluso sin que las imágenes generadas lleguen a difundirse. Entre estos riesgos, la Agencia menciona: La pérdida de control sobre la imagen al intervenir un sistema tecnológico que retiene y procesa los contenidos. La existencia de copias no visibles y la posible retención de datos en servidores externos. La generación de metadatos y la reutilización de rasgos biométricos en otros contextos. La participación de múltiples actores tecnológicos, lo que dificulta rastrear responsabilidades. El riesgo de identificación persistente a través de sistemas capaces de extraer, almacenar y replicar características personales. Estos procesos pueden ocurrir incluso en contextos aparentemente triviales o privados, y ponen de relieve la necesidad de evaluar el uso de la IA desde una perspectiva de riesgo preventivo. Ámbitos de especial atención para la AEPD La nota también delimita los escenarios en los que la AEPD presta una atención reforzada, especialmente cuando: La imagen de la persona se utiliza de forma que reduce su capacidad de control sobre su representación pública. Se genera contenido verosímil que induce a error sobre hechos o conductas atribuidas. Se ven involucrados menores o colectivos especialmente vulnerables. El contenido contiene elementos de humillación, descrédito o sexualización no consentida. La difusión se realiza en entornos donde el daño personal, social o profesional puede ser elevado. En estos supuestos, los riesgos para los derechos fundamentales se amplifican considerablemente, por lo que se hace necesaria una respuesta adecuada desde el ámbito regulador, técnico y jurídico. Protección de derechos fundamentales y actuaciones penales La AEPD recuerda que estas prácticas pueden afectar directamente a derechos como el honor, la intimidad y la propia imagen, protegidos por el marco jurídico nacional y europeo. En los casos en los que existan indicios claros de delito, será competencia de las autoridades policiales, la Fiscalía y los órganos judiciales investigar y, en su caso, sancionar estos comportamientos. De este modo, el uso no autorizado de imágenes de terceros en sistemas de IA puede llegar a constituir conductas tipificadas penalmente, dependiendo del contexto y de los efectos generados sobre la persona afectada. Un llamamiento a la prevención y al uso responsable de la IA Con esta nota, la Agencia reafirma su compromiso con la prevención y la concienciación ciudadana, proporcionando criterios claros para evaluar los riesgos y consecuencias del uso de sistemas de IA con imágenes personales. El objetivo es fomentar un uso ético, respetuoso y legal de estas tecnologías, evitando vulneraciones de derechos y promoviendo entornos digitales más seguros y justos.