- Los deepfakes, creados mediante inteligencia artificial, suponen un grave riesgo para la privacidad y seguridad de los menores, especialmente al ser utilizados para crear contenido manipulador o comprometedores.
- El Reglamento General de Protección de Datos (RGPD) y el Reglamento de Inteligencia Artificial de la UE establecen normas para proteger a los menores frente al uso indebido de sus datos personales.
- España está adaptando su legislación, incluyendo medidas como la verificación de edad en plataformas digitales y sanciones específicas contra la creación y distribución de deepfakes que involucren menores.
- La educación y concienciación social son esenciales para equilibrar el avance tecnológico con la protección de los derechos fundamentales de los menores.
Deepfakes: una amenaza creciente para los menores
La rápida evolución de la inteligencia artificial (IA) ha permitido la creación de deepfakes, representaciones audiovisuales manipuladas que pueden ser indistinguibles de la realidad. Esta tecnología plantea serias preocupaciones, especialmente en lo que respecta a los menores, al facilitar la creación de contenido falso que puede vulnerar su privacidad, dañar su imagen y causar un impacto emocional profundo.
El caso ocurrido en 2023 en Almendralejo, donde varios menores crearon imágenes pornográficas falsas de niñas usando una aplicación de IA, encendió las alarmas en España. Este incidente puso de relieve los riesgos asociados a los deepfakes y abrió el debate sobre la necesidad de regular esta tecnología y proteger a los menores en un entorno digital cada vez más hostil.
Cómo funcionan los deepfakes
Los deepfakes se generan mediante algoritmos de aprendizaje automático, como las Redes Generativas Antagónicas (GAN), que utilizan grandes volúmenes de datos personales (imágenes, videos y grabaciones de voz) para crear contenido manipulado con un realismo sorprendente.
La técnica GAN opera mediante dos redes:
- Una red generadora crea imágenes falsas basándose en los datos proporcionados.
- Una red discriminadora evalúa y compara esas imágenes con las reales, perfeccionando continuamente la calidad de los resultados.
Otra técnica común es el autoencoder, que permite intercambiar o modificar rostros en videos mediante dos fases:
- Codificación: El rostro original se convierte en una representación comprimida.
- Decodificación: La representación comprimida se reconstruye con modificaciones, como cambios de rostro.
Estas tecnologías, cuando se aplican sin consentimiento, especialmente en menores, pueden dar lugar a la creación de contenido sexual falso o comprometedor, vulnerando derechos fundamentales y generando daños irreversibles en las víctimas.
El marco jurídico frente a los deepfakes
En Europa:
El Reglamento General de Protección de Datos (RGPD) establece que los menores requieren una protección especial respecto al uso de sus datos personales. Según su artículo 8, cualquier tratamiento de datos de menores de 16 años debe contar con el consentimiento explícito de sus tutores legales. La creación de deepfakes con datos de menores sin consentimiento no solo viola este principio, sino que constituye una práctica ilícita bajo las normativas europeas.
El Reglamento de Inteligencia Artificial (IA), aprobado en 2024, clasifica los deepfakes que involucran menores como prácticas de «riesgo inadmisible». Esta normativa incluye sanciones severas para quienes fabriquen, distribuyan o posean contenido deepfake que comprometa a menores, y promueve el desarrollo de herramientas para detectar y eliminar estos materiales.
En España:
El Consejo General del Poder Judicial (CGPJ) ha señalado la necesidad de adaptar el marco legal a los riesgos digitales, incluyendo amenazas como los deepfakes. El Anteproyecto de Ley Orgánica de 2023 propone sanciones para quienes utilicen datos personales de menores en la creación de contenido manipulado y establece la obligatoriedad de la verificación de edad en plataformas digitales.
Además, el Código Penal refuerza las sanciones contra el uso de identidades digitales falsas, protegiendo así a los menores frente al uso indebido de su imagen y datos personales.
Protección y educación: un esfuerzo conjunto
Proteger a los menores en un mundo digital dominado por tecnologías avanzadas como los deepfakes es un desafío que requiere la colaboración de legisladores, educadores, plataformas tecnológicas y la sociedad en general.
La educación digital desempeña un papel clave. Enseñar a los menores sobre los riesgos de estas tecnologías y promover el uso responsable de las mismas ayudará a mitigar los daños y a fomentar un entorno digital más seguro.
Por otro lado, el desarrollo de herramientas tecnológicas para la detección y eliminación de deepfakes será crucial para garantizar la privacidad y la integridad de los menores.
Un futuro con garantías para los menores
El equilibrio entre el avance tecnológico y la protección de los derechos fundamentales de los menores es una prioridad urgente. Las normativas europeas, como el RGPD y el Reglamento de IA, ofrecen un marco sólido para afrontar este reto, pero su éxito dependerá de su aplicación efectiva y del compromiso de todos los actores sociales.