El presidente de la Agencia Española de Protección de Datos se somete a un experimento y lo acaba dejando claro: "Los deepfakes no son una broma"
La Agencia Española de Protección de Datos (AEPD) lanza una campaña de concienciación sobre los peligros de las imágenes ultrafalsas, y lo hace de una forma muy curiosa: con su presidente sometiéndose a esta prueba.

La Agencia Española de Protección de Datos (AEPD) ha lanzado una nueva campaña de divulgación y concienciación sobre los desafíos y peligros de la inteligencia artificial usada para generar imágenes ultrafalsas, los famosos deepfakes. Y para ello ha sido su propio presidente, Lorenzo Cotino, el encargado de someterse a un curioso experimento. Ha cedido su rostro para que un tercero le suplantara en un vídeo.
"A través de un ejemplo práctico se muestra cómo la IA puede generar contenidos audiovisuales realistas a partir de una simple fotografía", explica la AEPD en un comunicado. "En el vídeo se presenta una simulación para, a continuación, transmitir que se trata de un montaje realizado con inteligencia artificial, en este caso, con consentimiento". Los deepfakes ya se usan incluso como herramienta de guerra.
El vídeo dura apenas un minuto. En los primeros segundos de metraje se ve a la izquierda a Miguel Ángel Liébanas, conocido como Mike AI, un divulgador y profesional del mundo de la ciberseguridad y la tecnología que se aproxima a la inteligencia artificial "desde un marco ético". Es el jefe de Tecnología de iniciativas como GEOMetrics, un proyecto que permite a los usuarios rastrear su huella digital en modelos como ChatGPT o Gemini.
Liébanas habla a cámara y explica: "Este vídeo no es más que una prueba de concepto de lo sencillo que resulta llevar a cabo deepfakes. En este caso es una prueba que sí ha sido autorizada, pero deja ver el potencial que tiene estos vídeos para suplantar la identidad de una persona". A su derecha, aparece el rostro de Lorenzo Cotino hablando y gesticulando, como si fuese él quien pronuncia esas palabras.
A continuación, el propio presidente de la AEPD interviene, ya solo: "Lo que acabas de ver es un montaje hecho con mi autorización y solo con una fotografía. Si vas a crear imágenes o vídeos, asegúrate de contar con la autorización de la persona. Si vas a compartir una imagen o un vídeo, asegúrate de que es verdad, de que viene de una fuente fiable. Los deepfakes no son una broma".
"Los deepfakes no son una broma"
Uno de los mayores desafíos para las comunidades que combaten los bulos desde disciplinas como el periodismo o la ciberseguridad es el hecho de que para muchos ciudadanos, estas tecnologías se revisten de cierta espectacularidad. A todo el mundo le apetece probar este tipo de herramientas por mera curiosidad. El problema es que la curiosidad lleva a la masificación y la masificación a muchos engaños.
De ahí que la AEPD haya lanzado esta campaña. El propio presidente de la entidad recuerda que la IA es una herramienta "que puede contribuir al progreso social", pero su uso "debe ir acompañado de información y responsabilidad". "Manipular imágenes de terceros con IA no es algo neutro, incluso en contextos aparentemente banales, y exige una valoración rigurosa. Este vídeo es una invitación a reflexionar y a actuar con prudencia en el entorno digital", enfatiza.
De hecho, la Agencia Española de Protección de Datos anima a informarse sobre cómo funciona la IA y qué implicaciones legales tiene, "teniendo en cuenta los posibles efectos negativos que los deepfakes pueden tener en la vida personal, profesional o social de los afectados". También a "solicitar el consentimiento siempre que se vayan a usar imágenes o datos personales de terceros".
